Este artículo fue originalmente publicado por el Reynolds Journalism Institute y se reproduce en IJNet con permiso.


La inteligencia artificial (IA) está diseñada por humanos, por lo que no es de extrañar que refleje los prejuicios humanos.

En 2020, Microsoft despidió a docenas de empleados de su redacción y los sustituyó por IA. Por desgracia, no tuvieron en cuenta los problemas de sesgo en los algoritmos y la frecuente incapacidad de estos para distinguir a las personas de color. Poco después de que los «robots» reporteros de Microsoft hicieran su debut, el algoritmo publicó una historia en MSN sobre Jade Thirwell del grupo Little Mix y sus reflexiones personales sobre el racismo… con una foto de la persona equivocada. En lugar de una foto de Thirwell, el algoritmo publicó una foto de su compañera de banda Leigh-Ann Pinnock.

La incapacidad de la IA para reconocer los rostros de las personas de color es un tema de gran preocupación. En 2021, el documental Coded Bias siguió a Joy Buolamwini, una científica informática del M.I.T. Media Lab después de que hiciera el sorprendente descubrimiento de que el software de reconocimiento facial de la IA no podía detectar los rostros de piel oscura ni reconocer a las mujeres con precisión.

En su libro Automated Unintelligence, la profesora de periodismo de datos Meridith Broussard explica que el término aprendizaje automático es algo engañoso en sí mismo. Cuando los informáticos dicen que las aplicaciones de IA «aprenden», no se refieren al aprendizaje en sentido humano. La IA aprende de los datos de entrenamiento: grandes conjuntos de datos que le enseñan patrones estadísticos del mundo. Básicamente, la IA aprende a resolver los problemas mejor y más rápido porque puede predecir lo que ocurrirá a partir de los datos que absorbe. Sin embargo, el resultado de esto es que la máquina se pierde muchos de los matices de la inteligencia y la comunicación humanas: por ejemplo, es probable que no sea capaz de detectar el sarcasmo o las figuras retóricas.

Además, la IA está creada por humanos, y los humanos tienen prejuicios. Por lo tanto, si un conjunto de datos refleja prejuicios humanos, la IA producirá un resultado sesgado. Así, por ejemplo, cuando Amazon utilizó la IA para examinar los currículos y filtrar a los solicitantes de empleo, se descubrió rápidamente que el algoritmo dejaba fuera los currículos de las mujeres.

El algoritmo se entrenó con los currículos de empleados exitosos y Silicon Valley no es conocido por su diversidad de género. Así que la aplicación empezó a rechazar los currículos con lenguaje femenino, penalizando los que tenían la palabra «mujer» y los que contenían el nombre de ciertas universidades femeninas. El resultado fue que Amazon tuvo que dejar de utilizar la aplicación poco después de presentarla. Aunque la herramienta se editó para hacerla más neutral, no había forma de verificar que no volviera a ser discriminatoria, por lo que no ha vuelto a emplearse.

Si bien es importante tener en cuenta los inconvenientes del sesgo algorítmico, no tenemos que desechar toda la IA. El uso responsable de la IA supone reconocer que los humanos ceden sus prejuicios a las máquinas y que seguimos necesitando la intervención humana en muchos casos. En el caso del editor de IA que publicó la foto de la mujer negra equivocada, el error podría haberse evitado si un editor humano simplemente hubiera verificado el artículo antes de su publicación.

Por tanto, comprender el sesgo de los algoritmos es útil para las redacciones que quieran añadir aplicaciones de aprendizaje automático a algunos aspectos del ciclo informativo. Es poco probable que la IA pueda sustituir a los periodistas humanos en el futuro, lo que coincide con las respuestas de los responsables de noticias locales que participaron en el estudio de Associated Press sobre el uso de la IA.

A continuación se presentan formas de tener en cuenta el sesgo algorítmico al utilizar la IA en la redacción:

  • Confirma la ortografía de los nombres en las transcripciones;
  • utiliza un verificador de hechos humano;
  • asegúrate de que las fotos son de las personas correctas antes de publicar la noticia;
  • audita periódicamente las aplicaciones de IA para detectar sesgos.

La IA funciona mejor como ayudante que como agente incontrolado. Aunque el potencial de las aplicaciones algorítmicas en las redacciones es todavía un campo en desarrollo, podemos empezar por desarrollar una comprensión básica de su funcionamiento y de cómo realizar un periodismo de mejor servicio con el apoyo de la tecnología.


Imagen de Resource Database™ en Unsplash.