GPT-3 entiende tanto de lo que escribe como un loro que canta el tango ‘El día que me quieras’

¿GPT-3 realmente «escribe» como los humanos? A la luz de muchos titulares entusiastas con las posibilidades de la inteligencia artificial, podría parece que sí. Pero las cosas no son como parecen.

La sobreexcitación que se percibe en el tratamiento mediático de muchos avances relacionados con la inteligencia artificial se corresponde más con las estrategias de marketing de las compañías desarrolladoras que con la realidad del desarrollo de esta tecnología. Por lo menos es lo que opinan los expertos en inteligencia artificial Ariel Guersenzvaig y Ramon Sangüesa en un artículo publicado en Sinc en el que tratan de poner algo de mesura frente a tanto titular ditirámbico.

Bajo el título «Los chicos del coro de la inteligencia artificial», estos científicos lamentan la falta de reconocimiento hacia todas esas personas que diseñan, desarrollan, entrenan, ponen en marcha y mantienen los llamados sistemas «inteligentes».

En su crítica, los autores del artículo se centran en lo que ellos llaman sistemas «generativos», que sirven para ‘crear’ algo nuevo, algo que no existía hasta el momento en el que es artificialmente generado por un sistema computacional, como  GPT-3 y Dall·e. 

loros estocásticos

OpenAI, la compañía detrás de ambos sistemas, ofrece en diversas publicaciones ejemplos de algunos resultados obtenidos con Dall·e a partir de peticiones tan variadas como solicitar el dibujo de “una nutria marina al estilo de La joven con un pendiente de perla de Johannes Vermeer” o una “foto de un astronauta a caballo”. Las imágenes resultantes son ciertamente notables y chocantes. Al menos ante el ojo inexperto, pasan por un dibujo realizado por un ser humano. Por otro lado, GPT-3 ya se ha usado para escribir artículos y columnas de opinión y muchos opinan que pronto se usará para escribir las entradas de la Wikipedia.

¿Pero es cierto que la IA puede ‘pintar’ mejor que nosotros? ¿GPT-3 realmente ‘escribe’ como los humanos?, se preguntan Ariel Guersenzvaig y Ramon Sangüesa. «Un sistema de IA no entiende, en un sentido humano, nada de lo que escribe. Investigadoras como Emily Bender o Timnit Gebru se han referido a estos sistemas como ‘loros estocásticos’. GPT-3 entiende tanto de lo que escribe como un loro que canta el tango El día que me quieras», afirman.

«Resulta ineludible -añaden- contar con productos del ingenio humano como base para estos nuevos productos y dedicar horas y horas de trabajo muy especializado para estabilizar el funcionamiento de  GPT-3. El personal de ingeniería que desarrolla este software lo prepara y monitoriza con cientos de miles de textos para que cuando alguien lo ponga en marcha genere como output una serie de palabras que nos parezca, a nosotros, una frase coherente. Dentro del sistema, no obstante, esta frase no será estrictamente una frase, sino simplemente un vector probabilístico. ¿Qué palabra debe ser la siguiente? ¿Qué combinación de palabras es la más probable en función de lo que se le ha solicitado?»

COMPLICIDAD DE LOS MEDIOS

Lamentan los autores de este artículo la abundancia de actitudes acríticas y crédulas. «Estas son especialmente intolerables cuando provienen de medios de comunicación serios, que deberían hacernos pensar más allá de nuestras primeras impresiones intuitivas».

«Nos resulta inadmisible -señalan- que desde la sección de tecnología de medios especializados o de diarios de tirada nacional no se mantengan unos mínimos estándares en cuanto al vocabulario empleado que atribuye a estos sistemas una capacidad volitiva que no tienen (“la IA dibuja y es creativa”). Claro, el papel del titular llamativo desde siempre y el clickbait necesario para sobrevivir no son desdeñables para entender estas prácticas comunicativas tan empobrecedoras del debate público.

Con contundencia, los autores denuncian que «tampoco se alcanzan unos mínimos estándares de calidad cuando estos mismos medios no consideran seriamente qué tipo de fuentes pueden contar como evidencias para que hablar de “avances históricos” esté justificado. Lo que se ha escrito en las últimas semanas sobre Dall·e (o sobre el modelo 540B desarrollado por Google, similar en operativa a GPT-3), está basado en informes internos de las propias empresas».

«No han pasado por los canales habituales de la comunicación científica ni han sido sometidos al escrutinio de la revisión por pares, ni han aportado información verificable acerca de la manera en que estos sistemas han sido entrenados, ni en base a qué datos. A veces las empresas directamente niegan a investigadores críticos de renombre el uso del sistema», critican.

GPT-3 y Dall·e, maravillas del ingenio humano

Así pues, estos expertos están convencidos de que «por más que los ‘chicos del coro’ de la inteligencia artificial digan lo contrario, nada de lo que ‘hace’ un sistema que implementa técnicas de IA es verdaderamente análogo a lo que hace un ser humano. El resultado obtenido puede resultar parecido (un dibujo o un texto, en los casos que hemos analizado). Sin embargo, a no ser que estemos dispuestos a adoptar una visión reduccionista que afirme que los seres humanos no somos más que sistemas estadísticos de toma de decisiones, el proceso por el cual un dibujante llega a un dibujo o una escritora a un texto es radicalmente distinto del empleado por las máquinas para llegar a estos resultados.

«Nada impide, en principio, que GPT-3 y Dall·e generen resultados de gran calidad técnica. De ser así, nos encontraremos ante nuevas y maravillosas muestras del ingenio humano. A menos que estos sistemas resulten en nuevas formas de perpetuar y exacerbar las injusticias sociales existentes, debemos celebrarlo y admirar a todas las personas que con su creatividad y trabajo los han hecho posibles», concluyen.

El artículo completo en SINC

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *