LEAP es un dispositivo de control gestual capaz de capturar y analizar con una precisión y un retardo que en un primer momento, incluso era dificil de creer :).
Está compuesto por dos cámaras en blanco negro y tres leds de infrarojos que proyectan un patrón de puntos, muy similar a kinect, pero en este caso la precisión se estima en 0.1milímetros con un metro de alcance, y por las pruebas que he realizado se obtiene 60 de framerate con un retardo casi imperceptible, realmente impresionante.
La capa de visión artificial que ofrece los datos de cada hueso y articulación de la mano y el brazo ha mejorado en la versión 2 tanto en compatibilidad como en usabilidad del sdk. Se ofrecen librerías para su uso en los principales lenguajes de programación, entre ellos javascript, dónde mi curiosidad y un poco de tiempo libre me están permitiendo hacer algún experimento.
Como primer ejemplo he explorado la integración de Three.js, partiendo de este ejemplo, lo he modificado para que las particulas se emitieran desde las últimas falanges de los dedos, y con algunos cambios en la iluminación este es el resultado. Si tienes un leap puedes usarlo online, desde github o desde la página de desarroladores de Leap, dónde me han publicado el ejemplo.
https://github.com/edumo/leap-three.js-particles
https://developer.leapmotion.com/gallery/simple-particles-using-leap-js-and-three-js