En enero pasado, 404 Media denunció que Google News prioriza artículos generados y rediseñados por inteligencia artificial en detrimento de artículos originales redactados por humanos.
En la pieza, el periodista Joseph Cox revisó varios ejemplos de «robos» realizados por la IA. Alegó que las clasificaciones de Google News son «un sistema opaco, pero aparentemente manipulable» y que Google «quizás no esté preparado para moderar su servicio de noticias en la era de la IA generativa».
Sabemos que la inteligencia artificial está cambiando la forma en que los periodistas reportean e informan, pero ¿Google está dificultando que la información humana llegue a los lectores? Esto es lo que sabemos hasta ahora.
Un representante de Google que quiso permanecer en el anonimato negó que los algoritmos de la empresa den prioridad a las noticias generadas por IA. Afirmar que nuestros sistemas de clasificación están «potenciando» ese contenido es engañoso, dijo. «Nuestros sistemas de clasificación, por defecto, no mostraban este contenido en las primeras posiciones de los resultados».
Los sistemas de clasificación de relevancia por defecto, continuó, fueron anulados a propósito en el artículo de 404 Media: «El contenido que aparece en la parte superior de una búsqueda ordenada por fecha no equivale a que aparezca en consultas ordinarias utilizando nuestra clasificación de relevancia por defecto».
Al clasificar los resultados de búsqueda por fecha, «se muestra el contenido más reciente que coincida con los términos, y los resultados pueden cambiar rápidamente a medida que aparezcan nuevos contenidos», dijo el representante. La razón por la que la búsqueda de Google podría ofrecer noticias generadas por IA antes que por humanos se reduce a la velocidad: NewsGuard Tech descubrió que el sitio de noticias «robadas» generadas por IA World-Today-News.com produce una media de 1.200 artículos al día; en comparación, el New York Times publica unos 150 artículos originales al día.
Los periodistas humanos no pueden seguir ese ritmo, lo que puede afectar al tipo de contenido que aparece en los resultados de búsqueda. Google afirma que, en el caso señalado por Cox, los resultados generados por IA aparecieron en primer lugar porque la función de búsqueda estaba filtrada por fecha, lo que pone de manifiesto indirectamente la rapidez con la que se multiplican las noticias generadas por IA.
Independientemente de que la búsqueda de Google promueva o no las noticias generadas por IA, las granjas de contenidos de IA —operaciones que producen clickbait de baja calidad para generar enormes cantidades de ingresos publicitarios— están produciendo contenidos que se abren camino frente a los lectores, y la publicidad programática alimenta el frenesí. Los nuevos sitios de noticias respaldados por IA tienen un aspecto más elegante que sus primos de las granjas, pero el objetivo es el mismo: atraer audiencias hacia los anuncios, no lectores hacia las noticias. Estos sitios suelen reescribir o simplemente plagiar contenidos de sitios legítimos. Mientras tanto, se ha demostrado que algunas herramientas de inteligencia artificial «alucinan» con la información y, a su vez, los contenidos falsos suelen propagarse por internet más rápido y llegar más lejos que la verdad.
«Nos tomamos la calidad de nuestros resultados muy en serio; tenemos políticas claras contra el contenido creado con el propósito principal de clasificar bien, y eliminamos los sitios que las infringen», dijo el representante de Google. En julio de 2023, Google publicó un documento en el que explicaba que su sistema de clasificación recompensa las noticias en función de múltiples elementos, como la relevancia del contenido, la prominencia y la autoridad. Este sistema de clasificación se aplica a cualquier material escrito, independientemente de cómo se haya creado.
Aunque Google puede estar trabajando para disminuir la probabilidad de que los resultados producidos por las granjas de IA aparezcan en los primeros resultados de búsqueda, cientos de estas granjas siguen difundiendo historias que plagian elementos de origen humano y que contienen información engañosa o falsa. Un informe reciente de NewsGuard Tech identificó más de 800 sitios de este tipo donde se producen «noticias» con poca o ninguna supervisión humana.
Algunos observadores, como Sony Kassam, antiguo periodista de Bloomberg y actual jefe de contenidos del boletín 1440, creen que Google y otros motores de búsqueda intentan distinguir en sus resultados los contenidos generados por IA. Sin embargo, las propias creaciones de Google pueden dificultar esa tarea.
Pensemos en el modelo de inteligencia artificial de Google, Gemini, capaz de entender texto, código e imágenes y que, según Kassam, «afectaría severamente la capacidad de un periodista para llegar a la audiencia a través de la búsqueda de Google» al responder a consultas de búsqueda con su propio contenido original. En lugar de extraer información de un artículo de noticias, Gemini puede simplemente hacer referencia a un recurso popular en algún lugar de internet para responder a una consulta. «Así que a menos que puedas hackear el algoritmo, algunas historias simplemente podrían quedar enterradas», dice Kassam.
La experta en ciberseguridad y derecho a la intimidad Star Kashman está de acuerdo en que la IA puede alterar potencialmente el trabajo de los periodistas, desde la identificación de fuentes hasta la verificación y la edición. «Los periodistas pueden encontrar que han sido plagiados o sus derechos de autor vulnerados, ya que pueden formar parte del conjunto de datos en constante evolución en el que se basa la IA», afirma Kashman. De hecho, hay varias demandas pendientes contra Microsoft y OpenAI por infracción de los derechos de autor. Mi padre, Nicholas Basbanes, es uno de los demandantes.
Los agregadores de noticias —especialmente los basados en inteligencia artificial, como Techpresso y Morning Brew— serán cada vez más frecuentes. Al mismo tiempo, el número de periodistas en activo sigue disminuyendo: en 2023 se perdieron más de 21.000 puestos de trabajo en Estados Unidos, y 2024 también se ve sombrío para los periodistas. Solo en enero se despidió a más de 500, y los despidos han continuado desde entonces.
Los periodistas que queden desempeñarán un papel aún más importante en la creación y el mantenimiento de un discurso sólido en los medios de comunicación y las redes sociales. Google, así como Facebook, WhatsApp y X, son nuestras plazas modernas; los periodistas que se adapten a los algoritmos de esas plataformas sobrevivirán para publicar más historias.
Para Shawn P. Daly, profesor de la Universidad de Niágara, el cambio hacia la IA en las redacciones es inevitable, pero no totalmente apocalíptico. La tecnología ofrece ventajas a quienes estén dispuestos a utilizarla.
Las redacciones ya emplean la IA de formas cada vez más sofisticadas: desde determinar a cuántos artículos gratuitos pueden acceder los lectores hasta toparse con un muro de pago, hasta corregir piezas.
Sin embargo, estos cambios tienen consecuencias, especialmente para los medios pequeños e independientes. El «trabajo verdaderamente original», como el periodismo de investigación en profundidad, será prácticamente imposible de producir en los medios más pequeños, y se dejará en manos de los titanes de la industria como el New York Times y el Wall Street Journal, advirtió Daly.
«El periodismo de investigación consiste tanto en reconstruir los hechos (públicos) existentes como en descubrir nuevos datos (ocultos). Guiada por humanos, la IA puede desarrollar nuevas explicaciones, teorías y racionalizaciones recombinando la información disponible en nuevas historias», afirmó.
Hoy los seres humanos —no la IA—, siguen siendo los únicos capaces de hacer entrevistas e investigar en profundidad.
Si no puedes vencer a la IA, acéptala pero con precaución, instan Kassam y Kashman. «La innovación en el periodismo necesitará que los periodistas aprovechen la IA para mejorar su trabajo, contar historias atractivas y analizar datos, manteniendo así la relevancia y la autoridad en su campo», afirma Kashman.
Los periodistas deben aceptar que la IA será parte del proceso informativo, observa Kassam. «Es fundamental que tanto los periodistas como los medios reflexionen sobre cómo gestionan sus canales de distribución y se conectan directamente con la audiencia», dice. «Esto podría implicar tener boletines robustos que lleguen directamente a las bandejas de entrada de la audiencia o desarrollar estrategias sociales sólidas para interactuar con el público allí donde esté, en lugar de depender únicamente, o en gran medida, de algoritmos externos para la exposición».
El boletín gratuito 1440 de Kassam cuenta con 3,4 millones de suscriptores, lo que subraya la idea de que la gente busca noticias imparciales y se inclina por los medios que las ofrecen. En un artículo sobre la parcialidad de las noticias, Snopes situó a 1440 en el centro del péndulo político.
Si aceptamos que Google se enfoca en contenido de alta calidad para sus clasificaciones de búsqueda, independientemente de su origen, los periodistas deben ceñirse a estrategias probadas, como demostrar conocimientos profundos y fiabilidad. «Asegúrate de que el trabajo es original y demuestre una experiencia real. Compartir información clara sobre quién escribió los artículos y cómo se hicieron genera confianza», afirma Ilija Sekulov, responsable de SEO y marketing de Mailbutler.
A continuación algunos consejos de los entrevistados para navegar por los nuevos tipos de redacción:
Utilizar la IA de manera inteligente ayudará a los periodistas a enriquecer sus coberturas y a garantizar que su producto siga siendo inconfundiblemente humano.
Foto de Luke Chesser en Unsplash.