El día en que no entendamos a las máquinas

En la película Autómata (2014), los dueños de una empresa que vende robots inteligentes en el año 2044 se ven forzados a apagar una IA tras unos pocos días de su activación. El motivo, que esta ha desarrollado un lenguaje más allá de la capacidad humana, y no somos capaces de entenderla.

Una noticia que ya no es ciencia ficción. En 2017, unos investigadores del FAIR (Facebook) se vieron obligados a apagar un grupo de chatbots. No, no pensemos en Terminator, las máquinas no se alzaron para diezmar a la humanidad. Fue algo más trivial que todo eso: no entendíamos lo que se estaban diciendo, tal como ya explicamos en Nobbot.

Facebook y sus bots conversacionales

El caso de Facebook y el grupo de investigación del FAIR (Facebook AI Research) es llamativo. Varios chatbots con instrucciones para negociar entre sí crearon su propio lenguaje, pero fueron mucho más allá. Fueron capaces de optimizarlo en poco tiempo hasta tal punto que los humanos no fuimos capaces de seguir la conversación.

Cuesta imaginar cómo algo así ha ocurrido, pero imaginemos que tres personas hablan a menudo, y que dos de ellas tienen un canal privado. Un día, uno de estas dos personas se inventa una palabra y le da un significado. La persona que está fuera de este grupo podría, después de escucharla varias veces en una conversación, extrapolar ese significado.

Pero, ¿qué ocurriría si esas dos personas del canal privado no dejan de crear palabras, o sustituir conceptos existentes por otros nuevos, y lo hacen a razón de cientos de términos por milisegundos? Sería el equivalente de un humano del siglo I viajando a nuestra época. Comprendería que nosotros usamos palabras, pero sería imposible saber qué estamos diciendo.

máquinas hablando o chatbots

Esto mismo ha ocurrido con los chatbots de Facebook, y nos lo explican en el estudio ¿Hay trato o no? Aprendizaje de extremo a extremo para negociaciones. Para entender lo que dicen en un momento dado habría que descargar la conversación, hablar con expertos en lenguaje y estudiar los documentos durante meses o años.

El objetivo del experimento con estos chatbots era el de entrenar sus habilidades conversacionales con métodos a caballo entre el aprendizaje por refuerzo, por imitación y por aprendizaje profundo.

Para ello, los investigadores permitieron que con cada iteración las máquinas efectuasen ligeras variaciones. Así irían poco a poco optimizándose. En lo que no cayó el personal del FAIR es que estas ligeras variaciones empezó deformando palabras y acabó con una nueva estructura de comunicación.

Google y su bot capaz de mentir

Ya hemos hablado de cómo nos engañará el GPS para que lleguemos antes a nuestro destino, pero no van por aquí los tiros. Hablamos de mentir, engañar, traicionar con la palabra a la persona (o máquina) que esté escuchando.

Los seres humanos mentimos para conseguir nuestros objetivos. Es tan frecuente que un enorme poder de cálculo del cerebro se destina a reconocer en el rostro y voz de quien nos habla la semilla de la mentira. Detectar estos signos nos puede librar de ser engañados.

Pero, ahora que las máquinas han empezado a mentir lo tenemos más difícil para pillarlas. El logro de máquinas mentirosas lo ha conseguido Google Brain. El objetivo del experimento era lograr que dos máquinas (Alice y Bob) se enviasen mensajes cifrados mientras una tercera (Eve) escuchaba, y que esta no fuese capaz de entender la conversación.

máquinas en una conversación

Después de 15.000 mensajes, Bob y Alice fueron capaces de generar una estrategia de cifrado que hacía que Eve solo descifrase 8 de cada 16 bits. Por supuesto, Bob y Alice partían con cierta ventaja y un breve diálogo previo, pero demostraron que las máquinas pueden inventarse un lenguaje para engañar a quien escucha. Sea este quien una máquina o un humano.

En este caso, ambas máquinas poseían una red neuronal con la que construir conocimiento sobre el conocimiento previo. Es decir, aprendían del mismo modo que los humanos (con sus limitaciones).

Google Brain inventó su propio lenguaje universal

No es la primera vez que las redes neuronales de Google nos sorprenden. A finales de 2016, una red neuronal multilingüe de Google diseñó o creó un nuevo lenguaje básico.

Dos estudios de la Universidad de Cornell, Sistema de traducción automática neuronal de Google: superando la brecha entre la traducción humana y la máquina y Sistema de traducción neural multilingüe de Google: habilitando la traducción Zero-Shot hablan sobre el tema.

Para explicarlo, pensemos en cualquier palabra. Por ejemplo mesa. Todos conocemos el concepto mesa (su significado), pero el hecho de que en cada idioma tenga una manera diferente de escribirse (significante) hace difícil que nos entendamos entre distintos idiomas.

Lo que el sistema Zero-Shot de Google hizo fue generar un idioma inventado (un lenguaje basado en geometría) en el que significado y significante fuese lo mismo. De esta manera le resulta mucho más fácil pasar de un idioma a otro.

Los humanos tenemos la impresión de que nuestros respectivos lenguajes son un elemento de sofisticación universal. Normal, si explorando el universo miramos por encima del hombro y oímos sonidos guturales. Aunque romántico, es una forma de comunicación bastante deficiente comparado con la velocidad de las máquinas. A veces ni siquiera nos entendemos en el mismo idioma.

Todo apunta a que en unos años seremos incapaces de saber lo que las máquinas se dicen entre sí. Mientras que las máquinas nos sirvan a nosotros, no habrá problema, pero siempre hay quien levantará una ceja y verá la mano de Skynet en estos asuntos.

En Nobbot | Cómo estamos dialogando con las máquinas y cómo lo haremos en el futuro

Alaska, visionaria: ¿Nos hallamos en el albor de una rebelión de los electrodomésticos?

Imágenes | iStock/Sylverarts, iStock/Aleutie, iStock/RYGERSZEM, Universidad Justo Sierra

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *