El departamento de Inteligencia Artificial de Google anunció que pronto será posible que un teléfono inteligente intérprete y lea en voz alta el lenguaje de signos, noticia muy bien recibida por quienes padecen de discapacidad auditiva.

El gigante tecnológico publicó los algoritmos creados por Google Inteligencia Artificial para que los desarrolladores creen sus propias aplicaciones, y es que hasta ahora, descifrar el lenguaje de signos sólo era posible desde una PC, pero según Google en el futuro los smartphones podrán hacerlo.

Activistas de la comunidad con discapacidad auditiva celebran la noticia aunque hay quienes ponen en duda la “destreza” de la tecnología para captar algunas conversaciones.

Apuntan que la idea de que una aplicación reproduzca audio, solo con señas manuales, hace que se pierda cualquier expresión facial, y esto podría cambiar el significado de lo que se dice.

​Los ingenieros de Google respondieron a los usuarios que la intención de la tecnología publicada era servir como “base para la comprensión del lenguaje de señas”. Además, los algoritmos fueron creados en asociación con la empresa de software de imagen MediaPipe.

“Estamos entusiasmados de ver lo que se les ocurre a las personas. Por nuestra parte, continuaremos nuestra investigación para hacer que la tecnología sea más robusta y estabilizar el seguimiento, aumentando la cantidad de gestos que podemos detectar de manera confiable”, dijo a BBC una portavoz de Google.

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here