Microsoft Research desarrolla una técnica para convertir cualquier cámara 2D en un Kinect

Ricardo Cambre
Microsoft se ha llevado al SIGGRAPH 2014 todo un abanico de propuestas en el campo de la computación gráfica y las técnicas interactivas. Entre las ideas presentadas por los de Redmond podemos encontrar un "micrófono visual" que recupera sonidos de un vídeo o un algoritmo para crear hyperlapses.

Sin duda todos los proyectos de la compañía son interesantes a nivel conceptual, pero una de las propuestas (pdf) de Microsoft Research brilla con luz propia al considerar las posibles aplicaciones comerciales: Convertir cualquier cámara 2D convencional en un dispositivo similar a Kinect.


Los investigadores explican que las cámaras tridimensionales no podrán sobrepasar la adopción generalizada de las cámaras 2D debido a su aparición en portátiles y smartphones. En respuesta a esto, el proyecto propone una serie de pequeños cambios de hardware para suministrar detección de profundidad en cualquier cámara con "una reducción dramática en coste, eficiencia energética y factor de forma".

El sistema está basado en la instalación de varios LEDs infrarrojos alrededor de la cámara que iluminan la escena sin interferencias de las fuentes de luz colindantes. A partir de esa configuración se aplica un algoritmo que calcula la profundidad del espacio mediante un sistema predictivo.

Imagen

Los primeros prototipos del proyecto entregan una fidelidad a corta distancia que se acerca a la del Kinect de Xbox One. Además, este sistema es capaz de identificar y clasificar las partes de una mano al igual que su homólogo especializado para la consola de Microsoft y Windows.

De momento, la aproximación de Microsoft Research presenta una serie de limitaciones. Por ejemplo, el sistema no detecta con facilidad superficies reflectantes y se pierde precisión en los bordes de la imagen. Asimismo, la modificación de la cámara impide la captura simultánea de imágenes en color tradicionales.

En todo caso, los investigadores ya cuentan con posibles soluciones para placar estos problemas. Los responsables del proyecto esperan que el sistema se termine instalando en cámaras web y en teléfonos móviles, dando lugar a nuevas vías de interacción gestual entre hombre y máquina.