_
_
_
_
_
Defensora del lector
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Aprovechemos la inteligencia artificial para el periodismo

EL PAÍS inicia una reflexión interna para delimitar los usos de herramientas como el ChatGPT en la Redacción

ChatGPT
FERNANDO HERNÁNDEZ / Getty
Soledad Alcaide

La irrupción de modelos de inteligencia artificial (IA), en particular ChatGPT desde noviembre, ha provocado una ola de preocupación —quizás precipitada—, que tiene eco en los medios de comunicación. En la reunión anual de ONO (la organización internacional de defensores del lector, con representantes de casi un centenar de medios, entre ellos EL PAÍS), que se celebró la semana pasada en Londres, se constataba la inquietud por que la llegada del primer chatbot capaz de crear contenido por sí solo arrolle a las redacciones que no estén preparadas. Como si se fuera a repetir la crisis de la disrupción digital, cuando la universalización de internet a finales de los años noventa transformó radicalmente el sector y provocó el cierre de miles de periódicos en todo el mundo.

“A medida que entremos en el mundo de la inteligencia artificial será más difícil saber qué es verdad y qué es mentira”, afirmaba en este foro la columnista estadounidense Margaret Sullivan, ex defensora del lector de The New York Times, que animó a los periodistas a formarse en esta tecnología y a fomentar “la transparencia radical” de su trabajo en aras de la credibilidad. Ella puso en palabras lo que todos piensan: si las habilidades de ChatGPT sirven para multiplicar exponencialmente el contenido falso que ya corre por las redes sociales, todo el ecosistema de la información quedará contaminado, de forma que un lector sea incapaz de discernir la realidad por sí solo.

“Hemos entrado en una era nueva”, afirmaba en el mismo cónclave Andrew Cochran, fundador de journalismAI.com y antiguo jefe de estrategia de contenidos de CBC, la cadena pública de Canadá. “Hay un antes y después de GPT4 [la última versión del chat]”. Y eso a apenas unos meses tras su lanzamiento el 14 de marzo.

Medios como la agencia Reuters o Financial Times han empezado a anticipar daños con indicaciones a sus empleados de cómo deben utilizar estas herramientas, en las que recomiendan que los reporteros supervisen cualquier historia generada por inteligencia artificial.

La Redacción de EL PAÍS también ha iniciado este camino necesario. La directora, Pepa Bueno, ha encargado a la sección de Tecnología un trabajo de campo previo a cualquier decisión y el Comité de Redacción, que representa a los periodistas, ha solicitado a la dirección formación específica para los redactores y una reflexión interna.

Mientras, EL PAÍS ya trabaja con unos principios profesionales aplicables a algunas situaciones, que es bueno recordar para que los lectores sepan el criterio:

Imagen

Es en la fotografía y el vídeo donde se ha avanzado más y ya existen muchas herramientas de tratamiento de la imagen que hacen los cambios imperceptibles, aunque los grandes hitos han sido Midjourney y la versión de Photoshop con IA de Adobe, de finales de mayo.

Sin embargo, el Libro de Estilo prohíbe la manipulación de imágenes “que no sea estrictamente técnica (edición periodística, eliminación de deterioros o corrección de defectos técnicos)”. Moeh Atitar, redactor jefe de Fotografía, explica que la IA ya ha endurecido el protocolo para aceptar trabajos externos, porque si no han pasado por un filtro anterior ―por ejemplo, como el material de agencias― es necesaria la supervisión técnica. “Para eso pedimos el archivo RAW [el original en bruto], que es más difícil de manipular”, precisa. Pero, la realidad, añade, es que la tentación de usar estas herramientas es muy fuerte: “Solo nos salva nuestro compromiso ético personal”.

Texto

Algunos redactores, como Jordi Pérez Colomé o Natalia Marcos, han hecho pruebas con el ChatGPT para explicar a los lectores cómo funciona y en ambos casos especificaron que estaban experimentando con IA. La redacción lleva años usando herramientas de IA, sin que el lector sea consciente, ni sea necesario aclararlo: el corrector ortográfico, el generador de etiquetas de búsqueda en las informaciones de la web o la plataforma que automatiza la publicación en redes sociales, por mencionar algunas de uso diario. La gran diferencia es que ChatGPT es en sí mismo un autor que crea textos propios.

¿Es razonable usarlo? “Ahora mismo, no”, afirma Patricia Fernández de Lis, redactora jefa de Ciencia y Tecnología. “Porque como generador de contenido original tiene muchos fallos”. Aunque, recalca, evoluciona con mucha rapidez. La cuestión es que, además, esos errores no se perciben, porque la información que se inventa el chat es plausible. Y ahí está justamente el peligro.

Sin embargo, ChatGPT tiene otros usos de asistencia que funcionan correctamente. Por ejemplo, es capaz de convertir un texto largo en otro más corto o proponer un titular. En ambos casos, se basa en originales ya creados por periodistas. Lo lógico es aplicar la máxima de Spiderman: un gran poder conlleva una gran responsabilidad. Por tanto, el redactor que disfrute de las ventajas del chatbot también deberá asumir los fallos.

Transparencia

Uno de los principios éticos que recoge el Libro de Estilo es el de explicar de dónde procede la información y atribuir correctamente las fuentes que la proporcionan. Siempre que se utilice IA para elaborar un texto lo correcto es identificarlo.

Derechos de autor

Existen muchas dudas jurídicas sobre la propiedad intelectual de las creaciones de IA. En España, y en la Unión Europea, los derechos de autor solo son reconocidos a las personas físicas y su protección no está garantizada para las obras de una IA. ¿Merece la pena el coste de crear una ilustración si cualquiera puede luego usarla? ¿Son las respuestas de ChatGPT de quien se las pide o de la fuente de donde este sacó la información?

Con las dudas razonables que se plantean en el uso periodístico del ChatGPT, la prudencia es fundamental, sin ser timoratos con la tecnología y la innovación. Esta es la hora de hacerse las preguntas, pero posiblemente no tengamos aún todas las respuestas. Por eso, es mejor tomarse el tiempo necesario para delimitar los usos de la IA, adaptarlos a las necesidades de la Redacción y tratar de no contribuir al ruido informativo. La única forma de aprovechar esta nueva ola digital es que nada salpique a la credibilidad del periódico.

Para contactar con la defensora puede escribir un correo electrónico a defensora@elpais.es o enviar por WhatsApp un audio de hasta un minuto de duración al número +34 649 362 138 (este teléfono no atiende llamadas).

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Soledad Alcaide
Defensora del Lector. Antes fue jefa de sección de Reportajes y Madrid (2021-2022), de Redes Sociales y Newsletters (2018-2021) y subdirectora de la Escuela de Periodismo UAM-EL PAÍS (2014-2018). Es licenciada en Derecho por la UAM y tiene un máster de Periodismo UAM-EL PAÍS y otro de Transformación Digital de ISDI Digital Talent. 

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_