_
_
_
_
_

“Como con el cambio climático”: un grupo de expertos reclama la creación de un panel global que vigile los peligros tecnológicos

Un artículo en ‘Nature’ demanda instaurar un comité de especialistas “similar al IPCC para combatir los daños” de las redes sociales, la inteligencia artificial o los algoritmos

Inteligencia Artificial
Los CEO de Amazon, Jeff Bezos; Apple, Tim Cook; Alphabet, Sundar Pichai, y Facebook, Mark Zuckerberg. AP
Emanoelle Santos

Investigadores especialistas en tecnologías de la información, desde la computación al periodismo, reclaman la creación de un organismo intergubernamental para monitorear el desarrollo tecnológico. En un artículo publicado en Nature, sugieren que se trata de una amenaza con características similares a las de la crisis climática y, por tanto, reclaman que se cree una entidad semejante al Grupo Intergubernamental de Expertos sobre el Cambio Climático o (IPCC, por sus siglas en inglés), en el que especialistas de diferentes áreas como la política, ingeniería o la ética se sienten juntos para vigilar de forma coordinada a los sistemas de distribución de información global. Eso incluiría la banca en línea, las redes sociales, los motores de búsqueda (como Google) y los modelos generativos de lenguaje, como ChatGPT.

No son los únicos que están preocupados. Hace menos de dos meses, Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari firmaron, junto a millares de expertos, una carta abierta para frenar la carrera sin control de la inteligencia artificial (IA). Ayer en el Capitolio, Sam Altman, cofundador de la empresa creadora de ChatGPT, se sentó por primera vez ante la Comisión Judicial para pedir a una actuación urgente y abogó por crear una organización internacional que establezca estándares para la inteligencia artificial al estilo de cómo se ha hecho en el pasado con “las armas nucleares”. Geoffrey Hinton, padrino de esta tecnología, abandonó Google y asegura: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

En el comentario publicado en Nature, los expertos coinciden en que los riesgos que genera el cambio climático o la degradación del medio ambiente tienen la misma complejidad, escala e importancia a los que presenta el manejo de información a nivel global, que está en las manos de pocas empresas. Según sostienen, la toma de decisiones mediante algoritmos puede exacerbar los prejuicios sociales ya existentes y suscitar nuevas formas de desigualdad en diferentes aspectos. En el caso del acceso a la vivienda, citan que los algoritmos para orientar a los propietarios de casas de alquiler, “han apoyado dinámicas similares a las de los cárteles” con respecto a las restricciones de la oferta y de precio. Y los algoritmos que dirigen a la policía hacia potenciales zonas de alta criminalidad, al utilizar datos sobre la ubicación de detenciones anteriores, “pueden exacerbar los sesgos existentes en el sistema de justicia penal”.

Con respecto a las redes sociales, consideran que la velocidad en que los contenidos son creados y compartidos dan margen para más desinformación y el discurso de odio. Mientras tanto, la IA generativa ya amenaza las estructuras laborales de industrias enteras y desafía la percepción social sobre las bases del conocimiento científico. “ChatGPT podría atentar contra la comprensión pública de la ciencia al impulsar la producción de textos que contienen falsedades e irrelevancias a una escala industrial”, critican. Y añaden: “El mundo no está preparado culturalmente o legalmente”.

Conocimiento y transparencia

El objetivo de este grupo multidisciplinar que proponen no sería la búsqueda de un consenso internacional o un desarrollo jurídico, sino proporcionar “una base de conocimientos que sustente las decisiones de gobiernos, grupos humanitarios o hasta empresas” en una escala global. “De la misma manera que organismos como el IPCC de las Naciones Unidas realizan evaluaciones del cambio ambiental global que sirven de base a las políticas, se necesita ahora un grupo análogo para comprender y abordar el impacto de las nuevas tecnologías de la información en los sistemas sociales, económicos, políticos y naturales del mundo”, escriben en la nota, que ha sido firmado por Joe Bak-Coleman, investigador del Centro Craig Newmark para Periodismo, Ética y Seguridad de la Universidad de Columbia y Carl T. Bergstrom, profesor de Biologia de la Universidad de Washington, entre otros expertos.

Un grupo de este carácter, dicen, tendría más influencia que los investigadores independientes o las organizaciones sin ánimo de lucro a la hora de convencer a las grandes tecnológicas de que sean más transparentes. Según opinan, esas empresas están “desplegando una serie de tácticas” para influir en la percepción social sobre sus herramientas y también para frenar a la investigación científica externa. Por ejemplo, al limitar el tipo de datos disponibles para investigar, que a menudo tan solo incluyen información sobre el comportamiento de los usuarios, más que en el diseño o funcionamiento de las propias plataformas. “Como investigadores independientes, sopesamos continuamente los riesgos de que las empresas emprendan acciones legales contra nosotros por las actividades académicas básicas: recopilar y compartir datos, analizar hallazgos, publicar artículos y distribuir resultados”, argumentan en su comentario.

“Un grupo intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”

Para ejemplificarlo, resaltan que en 2021, Meta, propietaria de Facebook, envió una notificación de cese a unos investigadores de la Universidad de Nueva York que habían creado una extensión de navegador para recopilar datos sobre la publicidad dirigida en la plataforma. “Por conversaciones con colegas, sabemos que desde entonces se ha disuadido a otros de realizar este tipo de trabajo”, detallan.

Otro de los ejemplos que expresan cómo las redes sociales promueven contenido tóxico se dio cuando Facebook puso sus documentos a disposición de la Comisión de Bolsa y Valores de los Estados Unidos en 2021. En esa ocasión, quedó claro que su algoritmo calificó las reacciones emoji como cinco veces más valiosas que los “me gusta” a lo largo de tres años. En este periodo, los datos internos mostraban que las publicaciones con el emoji de enfado tenían más probabilidades de incluir contenido potencialmente dañino y falso, como afirmaciones incorrectas sobre las vacunas.

Hasta ahora, los intentos de gestionar los ecosistemas de información digital han consistido en implantar barreras para proteger los datos de los usuarios, pero no han mostrado cómo evaluar y evitar a los daños de forma fiable. A diferencia del problema del cambio climático, caracterizado por la abundancia de datos, con causas y consecuencias comparativamente bien comprendidas, y unos perjuicios económicos cuantificables y evidentes a largo plazo, los riegos de las tecnologías de información es, todavía, un terreno poco conocido. Principalmente, porque hace falta transparencia por parte de quienes los dominan: “Un grupo intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”.

Un panel como este, argumentan, también tendría credibilidad en países no occidentales, lo que consideran “crucial” al paso que las repercusiones de las tecnologías digitales cruzan las fronteras y se manifiesten en contextos culturales diferentes. “Aunque países como China, Rusia y Estados Unidos no se pongan de acuerdo sobre cómo deben las plataformas y servicios deben ser liberados o limitadas, las consecuencias del mundo digital trascienden las fronteras internacionales. Cualquier esperanza de negociación entre naciones requiere una imagen más clara de lo que está ocurriendo y por qué, y cuáles son las respuestas políticas disponibles”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Emanoelle Santos
Redactora de la sección de Tecnología. Escribe sobre inclusión digital, inteligencia artificial e investigaciones científicas. Antes de incorporarse a EL PAÍS, trabajó para startups del sector financiero y comercio electrónico en Brasil. MBA por la Universidad de São Paulo y Máster de Periodismo UAM-EL PAÍS.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_