Bioingenieros de la Universidad de California Los Ángeles (UCLA) han diseñado un dispositivo similar a un guante que puede traducir la lengua de signos al habla en tiempo real a través de una aplicación de teléfono inteligente, según publican en la revista Nature Electronics.

"Esperamos que esto abra una manera fácil para que las personas que usan el lenguaje de señas se comuniquen directamente con los no firmantes sin necesidad de que alguien más les traduzca -desea Jun Chen, profesor asistente de Bioingeniería en la Facultad de Ingeniería Samueli de la UCLA e investigador principal de la investigación-. Además, esperamos que pueda ayudar a más personas a aprender la lengua de signos".

El sistema incluye un par de guantes con sensores delgados y elásticos que se extienden a lo largo de cada uno de los cinco dedos. Estos sensores, hechos de hilos conductores de electricidad, recogen movimientos de manos y colocaciones de dedos que representan letras, números, palabras y frases individuales.

Luego, el dispositivo convierte los movimientos de los dedos en señales eléctricas, que se envían a una placa de circuito del tamaño de una moneda que se lleva en la muñeca. La placa transmite esas señales de forma inalámbrica a un teléfono inteligente que las traduce en palabras habladas a una velocidad de aproximadamente una palabra por segundo.

 

Polímeros elásticos ligeros, económicos y económicos

 

Los investigadores también agregaron sensores adhesivos a las caras de los evaluadores, entre las cejas y en un lado de la boca, para capturar las expresiones faciales que forman parte de la lengua de signos estadounidense.

Los sistemas portátiles anteriores que ofrecían traducción del lenguaje de señas americano estaban limitados por diseños de dispositivos voluminosos y pesados o eran incómodos de usar, recuerda Chen.

El dispositivo está hecho de polímeros elásticos ligeros y económicos pero duraderos. Los sensores electrónicos también son muy flexibles y económicos.

Al probar el dispositivo, los investigadores trabajaron con cuatro personas sordas y que usan lengua de signos estadounidense. Los usuarios repitieron cada gesto de la mano 15 veces. Un algoritmo de aprendizaje automático personalizado convirtió estos gestos en letras, números y palabras que representaban. El sistema reconoció 660 signos, incluidas cada letra del alfabeto y los números del 0 al 9.