7 abril, 2012
Un grupo de estudiantes de la Universidad de Electro-Comunicaciones de Japón trabaja en el desarrollo de una herramienta que permitirá que el dispositivo Kinect, de Microsoft, reconozca la lengua y pueda utilizarla como comando de las acciones.
Este instrumento virtual detectará los gestos de diferentes órganos faciales y podrá rastrear los movimientos de un lado a otro y traducirlo a comandos, que se convierten en operaciones reales.
En este caso, la lengua actúa como un arma para disparar objetos circulares. La trayectoria del objeto será definida por la posición de la lengua. La idea del proyecto es ayudar a aquellos con problemas en la función motora oral y posean inconvenientes para hablar o deglutir. De esta manera, pueden hacer ejercicio con la lengua.
En un primer momento Kinect detectará las características faciales de la persona y sus ojos, luego calculará la posición de la nariz y la boca, para finalmente reconocer la lengua, que debe estar al descubierto.
Estas acciones se producen con un nivel muy preciso ya que el rastreo de los diferentes órganos se realizar con un grado de exactitud elevado.
En esta primera etapa, el software reconoce la lengua y permita que con sus movimientos se accionen los dispositivos en la pantalla y a partir de allí realizar algunas acciones, pero los desarrolladores están trabajando en un prototipo más avanzado, cuya intención es que pueda leer los movimientos de los labios.