1 febrero, 2017
Tal como indica Engadget, una conversación no se reduce a las palabras que hablamos; también entran en juego el tono, volumen, lenguaje corporal y la mirada, entre otros factores. Pero muchas las señales que enviamos pueden ser malinterpretadas o ignoradas por personas que luchan por entender la comunicación no verbal. Eso es lo que llevó a dos investigadores del MIT a desarrollar un software que podría quitar la ambigüedad sobre lo que la gente dice y hace.
Los investigadores Tuka AlHanai y Mahoma Mahdi Ghassemi desarrollaron un algoritmo que puede analizar el habla y el tono. Estos datos se procesan para calcular qué emoción siente una persona por cada bloque de cinco segundos de conversación. En un ejemplo, una persona está recordando su primer día en la escuela, y el algoritmo puede identificar el momento en que el tono cambia de positivo, a través de neutral, hasta negativo.
Los investigadores usaron un iPhone 5S para grabar el audio de las conversaciones, pero hicieron que cada sujeto de la prueba usara Simband de Samsung, la plataforma portátil para desarrolladores que ejecuta Tizen y tiene espacio para varios sensores adicionales. No es la más elegante de las implementaciones, pero cumple con el objetivo de incorporar esta tecnología dentro de un dispositivo portátil sin ayuda externa.
Por ahora, el gadget es bastante rústico en cuanto a sus terminaciones y no del todo cómodo, pero los investigadores creen que podría ser el primer paso en el camino hacia la construcción de un gadget para las personas con trastornos de ansiedad o condiciones como el autismo.
Vía: Engadget