GazeSpeak interpreta movimientos oculares en enfermos con ELA - Nobbot

GazeSpeak interpreta movimientos oculares en enfermos con ELA

La esclerosis lateral amiotrófica (abreviadamente, ELA) es una enfermedad degenerativa de tipo neuromuscular que se origina cuando las células del sistema nervioso llamadas motoneuronas disminuyen gradualmente su funcionamiento y mueren, provocando una parálisis muscular progresiva de pronóstico mortal. En etapas avanzadas de esta dolencia, los pacientes conservan la función cognitiva pero tienen graves problemas de comunicación pues no pueden hablar y ni escribir, siendo el movimiento del ojo una de las únicas vías que les quedan para comunicarse con el exterior ya que el curso de la enfermedad apenas afecta a las motoneuronas que controlan los músculos extrínsecos del ojo. Para ayudar a estos enfermos, investigadores de la Universidad de Washington y del equipo de investigación de Microsoft han desarrollado GazeSpeak, un app que captura e interpreta los movimientos oculares.

Hoy, las soluciones que usan tecnología de rastreo ocular son muy costosas y, además, las basadas en cámaras infrarrojas no funcionan bien en situaciones como la luz solar intensa. Sin embargo, los desarrolladores de esta nueva aplicación afirman en Techxplore que  “GazeSpeak funciona en una variedad de condiciones de iluminación, incluyendo interiores y exteriores, ya que utiliza una cámara RGB en vez de infrarrojos, y es improbable que su rendimiento sea degradado bajo la luz solar”.

gazespeak y los tableros de letras

Otra de las soluciones desarrolladas para estos enfermos, de bajo coste, se basan en que un cuidador sostiene un tablero transparente con agrupaciones de letras para que la persona con ELA pueda seleccionar una de ellas mediante movimientos oculares. El proceso es lento y requiere práctica y habilidad para la persona que interpreta los patrones de la mirada. La nueva aplicación es más fácil y más rápida de usar que las tablas pues automatiza esta experiencia. El intérprete sostiene el teléfono y dirige la cámara trasera a la persona que trata de comunicarse.

Los resultados del estudio demuestran que la aplicación mejoró significativamente el tiempo de comunicación sobre el método tradicional. De acuerdo con los autores, “nuestros estudios de usuarios muestran que GazeSpeak supera a la solución comúnmente utilizada tanto en velocidad de comunicación como en usabilidad, con una baja tasa de reconocimiento erróneo”.

“GazeSpeak puede interpretar gestos oculares en tiempo real, descifrar estos gestos en predicciones y facilitar la comunicación, con diferentes interfaces de usuario para hablantes e intérpretes”, explican sus desarrolladores a The Telegraph.

código abierto

GazeSpeak mostró un promedio de 78 segundos para completar una frase que, con los métodos actuales, lleva 123 segundos. En una de las pruebas una persona  logró “escribir” una frase en 62 segundos y dijo que probablemente esto podría mejorar cuando se la utilice en el mundo real.

En Mayo, Microsoft presentará la aplicación  en la Conferencia en Factores Humanos y Sistemas de Computación en Colorado, Estados Unidos, pero destará disponible antes en la tienda de aplicaciones de Apple y, quienes quieran colaborar para mejorar la misma o adaptarla, podrán hacerlo ya que es open source y el código estará disponible en forma totalmente libre.

A través de este video, realizado por Meredith Morris -que ha desarrollado la app junto a Xiaoyi Zhang y Karish Kulkarni– podemos comprobar el funcionamiento GazeSpeak.

Fuente: News Scientist