Preguntamos a ChatGPT los motivos para desconfiar de textos creados por sus algoritmos

ChatGPT inteligencia artificialLa capacidad de la inteligencia artificial y los algoritmos que la animan presenta limitaciones que hay que tener en cuenta antes de apresurarse a dar por muertos a los profesionales de la escritura a la vista de los avances de herramientas como ChatGPT.

ChatGPT es una aplicación de inteligencia artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, creando textos de calidad suficiente como para pensar que han sido escritos por una mano humana. De esta forma, ámbitos profesionales que hasta ahora parecían patrimonio de nuestra inteligencia, relacionados con actividades creativas, se ven amenazados por el espectacular desarrollo de algoritmos que realizan labores hasta hace poco impensables.

¿Pero qué motivos hay para desconfiar de los textos creados por ChatGPT? Expertos como Pablo Haya, profesor de big data y ciencia de datos que lidera el grupo de Social Business Analytics en el Instituto de Ingeniería del Conocimiento, cree que, entre otras razones, estas herramientas son una fuente potencial de desinformación. Mala noticia en un mundo en el que las fake news son cada día más difíciles de distinguir de las noticias reales.

El experto explica a SMC que ChatGPT «es, básicamente, un modelo probabilístico que junta palabras. No entiende el conocimiento que genera, solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet y se ha puesto a hacer una tarea muy básica: le damos una frase, le quitamos una palabra de esa frase y entonces intentamos que la IA prediga la palabra que se le ha quitado. Y repetimos este proceso casi hasta el infinito, no solo en tiempo, sino sobre todo en volumen de datos».

¿qué opina CHATGPT de CHATGPT?

Pero quizás aporten luz a esta cuestión los propios algoritmos que se encuentran bajo sospecha. Por eso, pedimos a ChatGPT que nos explique los motivos que pueden hacernos desconfiar de los textos creados con esta herramienta y esto fue lo que nos respondió:

«Es comprensible que pueda haber cierta desconfianza en los textos creados con ChatGPT o cualquier otro modelo de lenguaje generativo automático. Algunas razones por las que puede ser importante tener precaución al considerar el uso de estos textos son:

  1. Precisión: Aunque los modelos de lenguaje generativo automático como ChatGPT han mejorado mucho en su capacidad para generar texto humano-como, todavía pueden cometer errores o producir texto que no es preciso. Es importante verificar la precisión de cualquier información presentada en un texto generado por un modelo de lenguaje.
  2. Objetividad: Los modelos de lenguaje generativo automático son solo herramientas y no tienen sentimientos ni opiniones propias. Sin embargo, pueden ser entrenados en base a datos que pueden ser sesgados o presentar un punto de vista particular. Es importante tener en cuenta esto al considerar el uso de textos generados por estos modelos.
  3. Credibilidad: Aunque los textos generados por un modelo de lenguaje pueden ser convincentes y parecer muy similares a un texto escrito por un ser humano, es importante recordar que no son producidos por seres humanos y no tienen la misma credibilidad.

En general, es importante tener precaución al considerar el uso de textos generados por modelos de lenguaje y siempre verificar la precisión y la fuente de cualquier información presentada en ellos».

¿Da escalofríos verdad? Bueno, pues leyendo estas líneas por lo menos podemos llegar a la conclusión de que ChatGPT es menos arrogante que muchos articulistas y escritores humanos. En algo ya les supera.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *