_
_
_
_
_
Columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

Ley de IA: quién vigila a los vigilantes

Todo el mundo ha cumplido su papel en la nueva normativa de la UE: los gobiernos quieren más libertad y la Eurocámara quiere más protecciones

Responsables políticos de la UE, entre ellos Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, y el comisario Thierry Breton (en el centro), tras la última reunión de negociación sobre la Ley de Inteligencia Artificial en Bruselas, en una imagen del Consejo de la UE.
Responsables políticos de la UE, entre ellos Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial, y el comisario Thierry Breton (en el centro), tras la última reunión de negociación sobre la Ley de Inteligencia Artificial en Bruselas, en una imagen del Consejo de la UE.
Marta Peirano

Cuando Bruselas propuso la ley de inteligencia artificial (IA) en abril de 2021, no existía ChatGPT. Rehicieron el trabajo muchas veces, con los lobbies resoplando en su nuca. Mientras predicaba el evangelio de la regulación en su gira por el continente, el consejero delegado de OpenAI presionaba a los reguladores para esquivar el control de sus productos en Europa, igual que Google y Microsoft. “El actual borrador sería excesivo”, dijo en Londres, “pero he oído que se van a retractar”. Hace dos semanas, Francia y Alemania se plantaron contra la regulación de modelos fundacionales. Son los dos países de la UE que más han invertido en empresas locales de IA. Sus modelos quieren competir en el mercado globalizado sin las manos atadas, como es natural.

Todo el mundo ha cumplido su papel: los gobiernos de los países quieren más libertad, y el Parlamento quiere más protecciones. La presidencia debe poner de acuerdo a las partes. La ley nace tras un parto de 36 horas, semanas antes de que la presidencia española se convierta en calabaza. Los belgas que nos suceden ya han dicho que para ellos la IA no es una prioridad.

Las buenas noticias: los modelos tendrán que publicar un resumen detallado de sus datos de entrenamiento “sin perjuicio de los secretos comerciales”, y todo contenido sintético deberá manifestarse como tal. Ya veremos cómo. Las empresas que entrenan modelos generativos como GPT o Gemini deberán garantizar que lo hacen respetando los derechos de autor. ¡Ya veremos cómo! También deberán facilitar información sobre la energía que consumen sus modelos. Un gol, teniendo en cuenta que la industria ya estaría consumiendo el equivalente anual a Irlanda. Se prohíbe el rastreo masivo de imágenes faciales en la red o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial. O sea, lo que hizo Clearview. La polémica está en el uso de sistemas de vigilancia e identificación biométrica.

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

El Parlamento quería prohibirlos todos y los gobiernos quieren usarlos todos. Especialmente Francia, primer país europeo en institucionalizar el uso masivo de sistemas inteligentes de vigilancia en tiempo real. El Parlamento francés los aprobó el pasado marzo como parte de su ley de seguridad para los Juegos Olímpicos de 2024. Francia no está sola dentro de la UE. En consecuencia, la ley de IA prohíbe el uso de identificación biométrica en tiempo real con muchas excepciones.

Están exentos los usos militares y de defensa. Las fuerzas del orden podrán usarla en espacios públicos previa autorización judicial no retroactiva para prevenir amenazas de terrorismo, tráfico de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en organización criminal y delito ambiental. También se prohíben los sistemas de reconocimiento de emociones en entornos laborales y educativos pero no en entornos policiales y migratorios. Aquí hay doble preocupación.

Primero, porque son contextos que favorecen el abuso de personas vulnerables. Segundo, porque son tecnologías insolventes, basadas en ideologías ética y científicamente repugnantes como la eugenesia, o entrenadas con bases de datos atravesadas por el racismo y la discriminación. Pero, sobre todo, porque la vigilancia biométrica en tiempo real es invisible, irreversible e incompatible con los derechos civiles. Quién vigilará a los vigilantes que la usan, esa es la cuestión.

Suscríbete para seguir leyendo

Lee sin límites
_
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_