Una estudiante crea un algoritmo capaz de traducir el lenguaje de signos en tiempo real

Priyanjali Gupta, una joven estudiante de ingeniería, ha desarrollado un algoritmo capaz de traducir en tiempo real el lenguaje de signos.

En la actualidad, más de 30 millones de personas en el mundo tienen problemas de habla, por lo que el lenguaje de signos es su única herramienta para interactuar con el mundo. Sin embargo, muy pocas personas conocen y manejan este lenguaje, lo que dificulta, en ocasiones, la integración de este colectivo en la sociedad.

En la carrera por derribar estas barreras comunicativas entre aquellos que conocen este lenguaje y aquellos que no, la inteligencia artificial y los avances tecnológicos están adquiriendo gran importancia. Hace unos años, se desarrollaron unos guantes capaces de traducir la lengua de signos a señales  de audio a través de un smartphone.

Estos guantes, creados por Roy Allela, están formados por cinco sensores flexibles, uno en cada dedo. Son capaces de cuantificar la curvatura de cada uno de los movimientos y cambian su resistencia en función de la flexión del propio sensor. Se conectan a una aplicación de Android, vía bluetooth, lo que les permite convertir los movimientos en señales de audio, traduciendo así de forma instantánea y automática el lenguaje de signos.

El lenguaje de signos más inclusivo

Ahora, Priyanjali Gupta, estudiante de ingeniería en el Instituto de Tecnología de Vellore de la India, ha empleado la inteligencia artificial para que conseguir que el lenguaje de signos se traduzca al inglés en tiempo real.

Para llevar a cabo esta innovación, la estudiante ha empleado una base de datos, que ha creado desde cero. De hecho, ha tenido que ponerse enfrente de la cámara y hablar en lenguaje de signos para que esta captase todos los movimientos de sus manos, con el objetivo de que la máquina reconociera los gestos y registrará sus correspondientes significados.

Actualmente, el modelo de Gupta solo es capaz de traducir los signos a inglés en fotogramas estáticos, puesto que para hacerlo en vídeo sería necesario perfeccionar la inteligencia artificial y ampliar sus capacidades a través de un entrenamiento más profundo. Por ahora, según ha afirmado la estudiante en GitHub, la página web donde ha publicado su trabajado, los signos que reconoce su modelo son Hola, Te quiero, gracias, por favor, y no.

Este modelo supone un gran avance para la interacción inclusiva de las personas con dificultades para comunicarse verbalmente y, además, es un buen ejemplo de como la inteligencia artificial puede ser una gran aliada para ayudar a las personas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *