_
_
_
_
_
DESINFORMACIÓN
Tribuna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las tribunas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Votantes: no dejéis que la desinformación os quite el poder

La forma más poderosa de apoyar un ecosistema informativo más limpio y basado en la realidad no consiste en añadir más desorden y virulencia, sino en aprender a participar lenta y deliberadamente en internet

Voters disinformation
El expresidente Donald Trump entrega una gorra a un seguidor mientras habla los medios durante la campaña en New Hampshire, el 23 de enero de 2024.Matt Rourke (AP)

El año 2024 ha sido bautizado como el “año de las elecciones”, en el que más de dos mil millones de personas tendrán la oportunidad de votar en contiendas de gran trascendencia en todo el mundo. Los titulares alarmistas abundan. Es probable que le hayan dicho: “La inteligencia artificial impulsará la desinformación en 2024”. O, tal vez, una versión más sombría: “La desinformación será imparable durante el año de las elecciones”. Ninguna de las dos afirmaciones es del todo falsa, pero ambas niegan a los votantes cualquier capacidad de acción. Y en una época en la que se miente por poder o por lucro, es esencial que protejamos y hagamos valer esa capacidad de acción cuando nos dirijamos a las urnas.

Llevo casi una década estudiando la desinformación. Mi primer trabajo en Washington consistió en colaborar en programas de apoyo a la democracia en Rusia y en Bielorrusia, y vi cómo el Kremlin ensayaba con sus ciudadanos las tácticas que más tarde emplearía en Estados Unidos. Las exploró aún más durante su primera invasión de Ucrania. Fui asesora del Ministerio de Asuntos Exteriores ucranio en 2016-2017, y pude observar desde Kiev cómo mi propio país se estremecía en respuesta a las revelaciones de que Moscú se había injerido en nuestro proceso democrático; a mis compañeros en Ucrania no les sorprendió. Desde entonces, he dedicado mi trabajo a exponer en Estados Unidos las lecciones que nuestros aliados han aprendido por las malas. Una lección que siempre ha persistido es que debemos ayudar a la gente a aprender a manejarse en un entorno de información cada vez más contaminado, confuso y acelerado. Me entristece decir que no hemos avanzado mucho en este sentido.

Con demasiada frecuencia recurrimos a soluciones técnicas para resolver problemas intrínsecamente humanos. Tomemos como ejemplo la reciente robollamada manipulada de Joe Biden antes de las primarias de New Hampshire. Alguien utilizó inteligencia artificial (IA) para generar un audio falso del presidente de Estados Unidos instando a los votantes demócratas a que no acudieran a las primarias del partido en el estado el pasado enero; si lo hacían, ayudarían a los republicanos, les decía el Biden impostor. (No solo era falsa la voz de Biden, sino también el pronóstico. En New Hampshire, los votantes demócratas y republicanos votan por separado, por lo que votar por los demócratas no afectaría a los republicanos). Pocas semanas después de que saliera a la luz la robollamada, la Comisión Federal de Comunicaciones prohibió el uso de voces generadas por IA en las llamadas automatizadas, una acción poco habitual en la política estadounidense por su rapidez y contundencia.

Pero el audio, las fotos y los vídeos generados por inteligencia artificial tienen todavía muchos vectores más para penetrar en la esfera informativa de Estados Unidos en estas elecciones. Podrían enviarse de usuario a usuario o en grupos cerrados de Facebook, WhatsApp o Telegram. Y allí será mucho más difícil rastrear la procedencia y distribución de estas falsedades, por no hablar ya de que será más peliagudo tomar medidas enérgicas contra ellas.

Por eso es fundamental que las personas rechacen el consumo pasivo de información que se ha convertido en endémico de la era digital y empiecen a pensar de forma crítica sobre el contexto y el contenido de la información que consumen. En el caso de la robollamada generada por IA, no me refiero simplemente a escuchar las características de los archivos de voz generados por IA, que son difíciles de detectar para la mayoría de las personas. Me refiero también a pensar en las circunstancias que rodean la llamada. ¿El Joe Biden amante de la democracia que conocemos instaría realmente a los votantes a quedarse en casa bajo ningún concepto? ¿Tienen sentido siquiera las alegaciones de la llamada automatizada sobre “ayudar a los republicanos”?

Más allá de ese incidente concreto, los votantes deben considerar cómo les hace sentirse la información que consumen. Sabemos que las noticias de las redes sociales juegan con las emociones: cuanto más enfurece el contenido, más atractivo resulta y más posibilidades tiene de convertirse en viral. Así que cuando nos sintamos alterados por algo que veamos en internet, deberíamos alejarnos de nuestros dispositivos. Demos un paseo. Tranquilicémonos. Si, al cabo de unos minutos, seguimos pensando en el contenido, hay algunas cosas sencillas que podemos hacer para evaluar la manera de proceder.

En primer lugar, consideremos la fuente. ¿Es conocido el que sube la información o el autor? ¿Es una organización o un particular? Si se trata de un particular, ¿parece legítima su cuenta? ¿Se ha creado recientemente? ¿Tiene amigos o seguidores? ¿Publica de una forma que parece humana y orgánica? En segundo lugar, si estamos viendo información de interés periodístico, comprobemos si otros medios conocidos de todo el espectro político se hacen eco de ella. En tercer lugar, si se trata de una imagen, el uso de una herramienta de búsqueda inversa de imágenes, que nos indica cuándo se publicó por primera vez una imagen en internet, puede darnos una pista sobre si ha sido atribuida erróneamente, editada de forma engañosa o incluso manipulada mediante IA.

Esta lista de preguntas no es exhaustiva ni infalible, pero les ayudará a hacer algo importante mientras navegan: reducir la velocidad. El entorno informativo actual no solo está contaminado, sino que se mueve con rapidez. Hemos visto a prestigiosos medios de comunicación cometer errores garrafales en sus informaciones y atribuciones en la incesante lucha por los clics y las visitas, y sabemos que los desinformadores comparten contenidos alarmantes o sensacionalistas para obtener poder o beneficios.

No tenemos que seguirles el juego. En este “año de elecciones”, la forma más poderosa de apoyar un ecosistema informativo más limpio y basado en la realidad no consiste en añadir más desorden y virulencia, sino en aprender a participar lenta y deliberadamente en internet, y en recompensar a los políticos que abordan sus trabajos y campañas con la misma ética.

Nina Jankowicz es experta en desinformación, democratización y odio digital, y vicepresidenta para Estados Unidos del Centro para la Resiliencia de la Información. También es autora dos influyentes libros: uno sobre desinformación (How to lose the information war, o Cómo perder la guerra de la información) y otro sobre el ciberacoso machista (How to be a woman online, Cómo ser mujer en internet).


Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_