_
_
_
_
_

La incitación al odio en internet estalla tras acontecimientos polémicos, incluso contra colectivos no relacionados

Los expertos advierten de los peligros de que la toxicidad surja de plataformas sin moderación: “No sabemos qué está pasando ahí”

Protestas
Un asistente lleva un cartel del movimiento 'Las vidas negras importan' durante las protestas por las muertes de negros desarmados a manos de la policía en Estados UnidosAndrew Caballero-Reynolds
Emanoelle Santos

Lo que pasa en la calle estalla en las redes y un estudio revela ahora una compleja relación entre acontecimientos de la vida real y la incitación al odio en internet. Al analizar 1.150 comunidades extremistas en seis redes sociales, los investigadores identificaron, por ejemplo, un pico en el número de publicaciones incitando el odio durante las manifestaciones del movimiento Black Lives Matter (las vidas negras importan), procedente del asesinato del afroamericano George Floyd a manos de la policía. Pero lo más notable es que no solo disparó el número de ofensas racistas, sino que también se multiplicaban las centradas en la identidad de género y en la orientación sexual, temáticas que tienen poca conexión con las protestas enmarcadas sobre todo por cuestiones raciales. Los resultados demuestran que el racismo va seguido por insultos aparentemente no relacionados, aunque no queda claro el porqué.

Yonatan Lupu, profesor de la Universidad George Washington y coautor del estudio publicado hoy en la revista Plos One, explica a EL PAÍS que tras un acontecimiento, como manifestaciones o elecciones, hay una reacción que empieza en las plataformas no moderadas y “muy rápidamente comienza a aparecer” en las redes sociales más populares. “Lo que ocurre en 4Chan [un foro de internet] no se queda en 4Chan. Está muy claro que se traslada a Facebook, a Twitter y a otras. Es un problema realmente grave, porque el contenido llega a un público mucho más amplio y potencialmente ayuda a los extremistas a radicalizar a personas que aún no lo eran”, subraya.

Tras las elecciones estadounidenses de noviembre de 2020, se produjeron varias oleadas de publicaciones extremistas en redes sociales: aumentaron los insultos homófobos hacia ciertos políticos, y la vicepresidenta Kamala Harris fue objetivo de ofensas machistas. Pero fue después de la muerte de Floyd, el 25 de mayo de 2020, cuando se produjo un repunte: el índice de incitación al odio racial aumentó un 250% a principios de junio y, a finales de año, seguía el doble de lo que había sido antes de este suceso. Lo más sorprendente, según califican los autores, es que los demás tipos de incitación al odio también aumentaron drásticamente, especialmente las relacionadas con identidad y orientación sexual (75%), etnia y nacionalismo (60%), y género (50%).

El papel de los medios

Los medios de comunicación desempeñan un papel especialmente importante porque generan visibilidad de estos acontecimientos y con eso crean una especie de pauta para las comunidades extremistas. “Parte de la razón por la que vimos un aumento tan grande de la incitación al odio durante las protestas de Black Lives Matter es porque recibieron mucha atención de los medios. Eso no significa que no debería haberla recibido, no es responsabilidad de los periodistas prevenir este tipo de cosas. En todo caso, es un deber de las plataformas, pero como algunas de ellas no están moderadas, no les interesa hacerlo”, desarrolla Lupu.

El equipo de investigadores, de la Universidad George Washington y Google, combinó métodos manuales y automáticos para analizar 59 millones publicaciones en comunidades y grupos de seis redes sociales: Facebook, Instagram, VKontakte, consideradas más moderadas, aunque en diferentes grados, y Gab, Telegram y 4Chan, con escasa moderación, entre junio de 2019 y diciembre de 2020. Los investigadores observaron y codificaron alrededor de 20.000 publicaciones para clasificar siete categorías de discriminación —homofóbica, racista, religiosa, étnica, sexista, xenófoba y antisemita—, según las disposiciones estadounidenses para los delitos y la incitación al odio, o bien si el contenido apoyaba o promovía ideologías fascistas o de nacionalismo extremo. A partir de este análisis manual, entrenaron el algoritmo para diferenciar si un determinado contenido se trataba de un insulto o una discusión.

La moderación en las plataformas más populares es una arma de doble filo. Son esenciales y tienen que existir, pero si los autores de los insultos son expulsados debido a mayor moderación de contenido, tienen otros sitios a donde ir y encontrarán un lugar donde pueden decir de todo, sin ninguna represalia, y eso intensificaría su radicalización y el acoso.

Opacidad en el origen

El estudio no ha rastreado a los usuarios, por lo que “no hay pruebas directas” de como ocurre esta migración desde las redes sociales más moderadas, como Facebook, para las que son menos restrictivas, como Telegram. Aun así, investigaciones anteriores llevadas a cabo por el equipo de Lupu han desvelado unas estrategias para captar audiencia y huir de la moderación. “Cuando los extremistas todavía están en plataformas convencionales, ellos crean un a especie de espejo con Telegram o Gab y publican diciendo ‘si nos eliminan de aquí, nos trasladaremos allí’”, comenta el profesor de ciencias políticas.

Sílvia Majó-Vázquez, investigadora postdoctoral del Instituto Reuters para el estudio del periodismo de la Universidad de Oxford, coincide en que la comunidad científica carece de datos concretos sobre las consecuencias de las plataformas no moderadas en la formación de la opinión pública y que se debería poner más atención a ellas. “Sabemos que se transita de plataformas abiertas a las cerradas para movilizar capital humano, para coordinar actividades de protestas y contra-protestas. Pero no sabemos qué está pasando ahí. Hay algunas señales que nos indican, pero no podemos cuantificar porque no tenemos los datos ni el acceso a ellas”, explica la experta.

Pese a que las plataformas moderadas son obligadas a actuar de forma inmediata para remover contenidos en determinados periodos de tiempo, Majó-Vázquez reconoce que es difícil identificar los discursos de odio a través de los mecanismos automáticos. “En el lenguaje tóxico hay muchos elementos de sarcasmo, de ironía, que transciende el lenguaje literal. Eso hace con que sea más difícil de detectarlo, por lo tanto, de tomar acciones por parte de las plataformas. Eso no significa que no tengan deberes que hacer”, sostiene.

¿Deberían los gobiernos involucrarse más en la regulación del contenido? Yonatan Lupu argumenta que no es una respuesta fácil. Mientras que el discurso de odio es extremamente preocupante, también podría ser igualmente peligroso si los gobiernos se implican demasiado en censurar los contenidos. “Desafortunadamente, no estoy seguro de cuál es el equilibrio adecuado”, concluye el profesor.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Emanoelle Santos
Redactora de la sección de Tecnología. Escribe sobre inclusión digital, inteligencia artificial e investigaciones científicas. Antes de incorporarse a EL PAÍS, trabajó para startups del sector financiero y comercio electrónico en Brasil. MBA por la Universidad de São Paulo y Máster de Periodismo UAM-EL PAÍS.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_