Según cifras de la Federación Mundial de Sordos (WFD), alrededor de
70 millones de personas con discapacidades auditivas utilizan la lengua de signos como primer método de comunicación. Lamentablemente, el aprendizaje de este código no se suele extender a los individuos que pueden oír, planteando un importante obstáculo para la expresión por dicha vía.
Aquí es donde entra UNI de MotionSavvy, una plataforma que posibilita conversaciones entre personas sordas y personas con audición. Para ello, el dispositivo utiliza un sistema de reconocimiento de gestos basado en Leap Motion que traduce signos a voz, mientras que en la dirección contraria toma el relevo un sistema de reconocimiento de voz que convierte el habla en texto.
La plataforma MotionSavvy UNI integra en una misma carcasa un sensor Leap Motion, una tableta y el
software original que realiza el proceso de traducción. UNI no requiere ninguna clase de conectividad para funcionar y mejora su precisión de forma adaptiva según los gestos de cada usuario.
"Ahora mismo, tenemos alrededor de 300 signos en el sistema", comenta el CEO Ryan Hait-Campbell a
CNET sobre la creciente base de datos del sistema. "Diría que probablemente hay entre 30.000 y 100.000 signos por ahí. Y podría haber incluso más. Especialmente cuando hablas sobre idiomas extranjeros, podría llegar a los millones".
De momento, el dispositivo funciona únicamente sobre una tableta Dell Venue 8 Pro, pero MotionSavvy espera dar compatibilidad a otros sistemas Android e iOS en el futuro. Según sus creadores, el prototipo actual ya permite detectar gestos a más de 30 centímetros de distancia, un detalle de gran importancia para los signos que utilizan varias partes del cuerpo.
MotionSavvy ha iniciado una
campaña en Indiegogo para financiar el proyecto. El dispositivo se puede reservar de forma anticipada desde la plataforma de
crowdfunding por 198 dólares (158 euros), con un estreno situado hacia finales de 2015.