ChatGPT y periodismo: ventajas, desventajas y temores

Compartir

C

hatGPT, un modelo lingüístico de inteligencia artificial (IA) creado por OpenAI, causa sensación entre los internautas y nos lleva a preguntarnos cómo esta tecnología cambiará nuestra forma de trabajar y escribir.

En el último seminario web en inglés del Foro Pamela Howard del ICFJJenna Burrell, directora de investigación de Data & Society, profundizó en las ventajas de ChatGPT y en cómo puede ser una herramienta para el periodismo. También abordó sus limitaciones y en qué aspectos la profesión debe estar alerta.

 

ChatGPT puede simplificar conceptos

Una de las tareas más importantes de los periodistas consiste en simplificar temas complejos para un público general. ChatGPT facilita esta tarea, explica Burrell. Gracias al modelo lingüístico, se puede introducir en ChatGPT un resumen o parte de un artículo académico y pedir al programa que lo simplifique. El periodista puede utilizar esta herramienta para comprender mejor un artículo o una idea antes de entrevistar al autor.

ChatGPT también es útil para hablantes no nativos de inglés. Su función de simplificación permite a los hablantes de inglés básico «traducir» cualquier trabajo a una forma más básica. Esto es especialmente útil para temas que utilizan un lenguaje complejo o especializado, como la ciencia o la economía.

Puede ayudarte a entrevistar

Los periodistas pueden utilizar ChatGPT para preparar sus entrevistas. Puedes hacer la lista de las preguntas que tienes en mente para un entrevistado, y el software creará más siguiendo tu modelo. El software también puede copiar una entrevista anterior, o un artículo escrito por el entrevistado, y desarrollar preguntas sobre ese tema.

ChatGPT también puede utilizarse para una primera «mirada» editorial. Los periodistas pueden introducir sus artículos para una última revisión antes de enviarlos a su editor, por ejemplo, pidiendo a ChatGPT que edite el artículo en un formato específico, como el estilo de AP. Los periodistas deben, desde luego, revisar y comprobar los cambios realizados por ChatGPT para asegurarse de que la información añadida no es errónea.

No siempre puedes confiar en sus resultados

Los periodistas no deben perder de vista el principal defecto de ChatGPT: no es de fiar. La herramienta se entrenó introduciendo la totalidad de Internet, y responde a las preguntas haciendo predicciones sobre la respuesta más probable a las consultas. Así, la respuesta que genera no siempre será la correcta.

Por ejemplo, cuando Burell preguntó a ChatGPT por expertos en el campo de la ciencia de datos, obtuvo una lista de conocidos académicos que estudian el tema. Sin embargo, cuando se modificó la pregunta para pedir expertos de Ghana en ciencia de datos, ninguno de los nombres que presentó existía, como se pudo comprobar tras una verificación.

Burrell advirtió a los periodistas que fueran conscientes de la proclividad de ChatGPT a «llenar los vacíos de datos». ChatGPT nunca va a responder a una pregunta diciendo que no conoce la respuesta; en cambio, si los datos de que dispone no ofrecen una respuesta, simplemente se la inventará. Esto puede ser especialmente problemático en regiones donde Internet ha carecido históricamente de información. «Como toma un poco de aquí y de allá, a menudo produce resultados absolutamente incorrectos y resulta difícil averiguar en qué parte está el error», señala Burell.

ChatGPT también tiene el problema de replicar los sesgos sobre los que se construyó. El software creció utilizando una gran cantidad de datos, pero la herramienta no puede «aprender», solo puede reproducir y regurgitar los datos que ya tiene.

Esto quiere decir que, dado que ChatGPT se construyó recopilando cantidades ingentes de información de Internet, la información que devuelve estará tan sesgada como la información con la que se entrenó. Cuando los periodistas utilizan ChatGPT, no solo deben verificar dos veces el contenido resultante, sino también ponerse en contacto con otras personas que tengan perspectivas diferentes, incluidas las que podrían contrarrestar el sesgo incorporado de ChatGPT.

«ChatGPT absorbe todo lo que hay en Internet; lo que se obtiene de él es un reflejo del sesgo de Internet en su conjunto», afirma Burell.

ChatGPT es aún una herramienta nueva, y quedan interrogantes sobre cómo su empresa matriz, Open AI, dará forma a su modelo de negocio. Todavía no está claro cómo esta organización ganará dinero, si se asociará o no con Microsoft y su motor de búsqueda, Bing, o si creará su propio modelo publicitario como los que utilizan Google y Bing.

Si bien actualmente la herramienta es gratuita (con una versión premium de pago anunciada recientemente) y está abierta a todo el mundo, cualquier cambio en la monetización podría plantear nuevas cuestiones en relación con la ley de derechos de autor. Por ejemplo, aunque ChatGPT se ha formado sobre todos los artículos que han escrito miles de periodistas, los autores no reciben ninguna compensación ni reconocimiento por su contribución.

Burell señala que esto podría ser un problema mayor con DALL-E, otra herramienta de Open AI, que crea imágenes a partir de texto. En la actualidad, los artistas que viven de sus creaciones están viendo sus estilos copiados por DALL-E sin crédito ni compensación. «Todo lo que has escrito y se ha hecho público se vuelca en la herramienta de OpenAI», explica Burrell. «El trabajo que has publicado como periodista está protegido por derechos de autor y es el que sirve de base a ese modelo, sin que recibas compensación alguna. No creo que la ley de derechos de autor esté realmente a la altura en este momento».

En la forma actual de ChatGPT, Burrell recomienda a los periodistas utilizar la herramienta, reconociendo sus limitaciones. Si bien el modelo puede ayudar a los periodistas a escribir más rápido cuando tienen un plazo límite, inspirarlos cuando les cuesta ser creativos y servir como una revisión más para garantizar que su trabajo está bien escrito y estilizado, siempre debe utilizarse con una mirada humana. Todo lo que dice debe ser verificado dos veces para comprobar su exactitud y sus fuentes.

En cuanto al temor de que la escritura de ChatGPT se haga pasar por periodismo, Burrell señala que carece del nivel de calidad y creatividad que un periodista puede aportar, y un editor suele notar la diferencia. «Los seres humanos seguirán siendo mucho más inventivos, creativos, y capaces de producir formas nuevas e inusuales de decir las cosas», afirma.


Imagen de Zac Wolff en Unsplash.

Compartir