Ucrania apuesta por un sistema de reconocimiento facial perseguido en Europa para identificar espías
La empresa estadounidense Clearview AI, investigada en seis países de la UE y multada en Italia, ofrece sus servicios a Kiev para detectar saboteadores rusos, reconocer cadáveres y reunir familias de refugiados
Las urgencias de la guerra han llevado al Gobierno ucranio a decidir usar el sistema de reconocimiento facial de Clearview AI, una empresa estadounidense que arrastra demandas a ambos lados del Atlántico por recoger imágenes de la gente sin pedir permiso. Según adelantó Reuters y ha confirmado este periódico, la compañía ofrece a Kiev acceso ilimitado a su herramienta desde el pasado sábado, así como entrenamiento gratuito al personal que lo vaya a maneja...
Las urgencias de la guerra han llevado al Gobierno ucranio a decidir usar el sistema de reconocimiento facial de Clearview AI, una empresa estadounidense que arrastra demandas a ambos lados del Atlántico por recoger imágenes de la gente sin pedir permiso. Según adelantó Reuters y ha confirmado este periódico, la compañía ofrece a Kiev acceso ilimitado a su herramienta desde el pasado sábado, así como entrenamiento gratuito al personal que lo vaya a manejar. El sistema, que es capaz de identificar a una persona a partir de una imagen, ya sea una fotografía o un fotograma de un vídeo, podría ser útil, dice Clearview AI, para detectar soldados rusos infiltrados, reconocer cadáveres o ayudar en la reunificación de familias de refugiados.
La startup no ha querido responder a este diario, sin embargo, sobre si planea extender la invitación de uso de su software a países fronterizos con Ucrania y miembros de la UE, como Polonia o Hungría. Estos dos Estados son conocidos por defender las aplicaciones policiales de reconocimiento facial y están concentrando buena parte del éxodo de refugiados que ha provocado la invasión.
10.000 millones de fotografías sin permiso
La polémica que rodea a Clearview AI tiene que ver con la base de datos de la que se alimenta: está compuesta por más de 10.000 millones de fotografías de rostros sacadas de internet sin permiso alguno. La intención de la compañía es llegar el año que viene a 100.000 millones imágenes, de manera que pueda identificar casi a cualquier persona del planeta. Sus servicios son solicitados por las fuerzas de seguridad de varios países, entre ellos algunos europeos. En total, unos 2.000 cuerpos policiales han recurrido o recurren a sus servicios, según se desprende de lo que ha admitido la propia empresa y lo que han publicado algunos medios. El FBI o el Departamento de Seguridad Nacional de EE UU se cuentan entre ellos. Algunas redes sociales, como Facebook, Google, YouTube, Twitter o LinkedIn, han solicitado formalmente a la compañía que deje de recolectar fotografías de sus respectivas plataformas.
En Europa, Clearview AI ha sido demandada por las autoridades de protección de datos de seis países: Francia, Alemania, Austria, Italia, Grecia y el Reino Unido. En diciembre del año pasado, París ordenó a la empresa que dejase de recoger fotografías de ciudadanos franceses y que borrara las que tuviera almacenadas. Roma, por su parte, impuso la semana pasada a la empresa una multa de 20 millones de euros, la cantidad más alta que permiten las leyes europeas, y la conminó también a eliminar los ficheros que tenga relacionados con italianos. “Esta decisión cierra el mercado europeo a Clearview AI y a empresas similares”, valoró el abogado Alan Dahi, de la organización austriaca de activistas en defensa de la privacidad NOYB. El Parlamento Europeo se refirió específicamente a Clearview AI, por operar con una base de datos privada, cuando solicitó en octubre en una resolución la “prohibición permanente del reconocimiento automático de individuos en espacios públicos” y el endurecimiento de la regulación que rodee su uso policial.
“Clearview AI se usa para resolver crímenes como el tráfico de personas o el narcotráfico”, señala el fundador y consejero delegado de la empresa, Hoan Ton-That, en la carta remitida al Gobierno ucranio en la que ofrece sus servicios y a la que ha tenido acceso EL PAÍS. “Nuestra base de datos contiene fotos de todo el mundo, y una larga proporción de redes sociales rusas como Vkontakte”, de la que cuentan más de 2.000 imágenes, según la misiva.
Ton-That dice que su herramienta es capaz de identificar a rusos infiltrados “con solo sacar una foto con tu teléfono móvil de la persona o de su carné de identidad”. Explica también que puede reconocer a víctimas mortales aunque estas hayan sufrido daños en el rostro y que se puede usar para “identificar a personas que estén en campos de refugiados sin documentos que acrediten su identidad”.
La excepcionalidad de la guerra
“La base de datos en la que se apoya Clearview AI jamás debería haber existido”, zanja Borja Adsuara, experto en derecho digital, a modo de resumen de los problemas legales que rodean a esta compañía. En la UE, el reconocimiento facial no está prohibido, pero sí limitado a ciertos supuestos. Salvo excepciones, no se puede emplear en espacios públicos, por ejemplo, y su uso debe ser proporcionado (reconocer ladrones frecuentes en tiendas, como pretendió Mercadona, no es admisible) y limitado a casos en los que esté en juego la seguridad ciudadana.
Otra de las claves es la propia naturaleza de las bases de datos en las que se apoyan estos sistemas. La UE es, comparada con EE UU u otros países, especialmente celosa de la privacidad de la información de sus ciudadanos. La policía, por ejemplo, puede usar el reconocimiento facial en los aeropuertos, pero porque se presupone que las bases de datos con las que cruza las imágenes de la gente están sometidas a controles y solo figuran terroristas y otros criminales. De ahí la consideración de Adsuara: en el caso de Clearview AI, el error es de origen en tanto que todas las fotos que usa para identificar a la gente fueron extraídas de internet sin consentimiento alguno.
Luego está la fiabilidad de la herramienta en sí misma. Aunque según la propia compañía su ratio de éxito es superior al 90%, un falso negativo (que el sistema se equivoque en la identificación de alguien) en un contexto bélico puede acarrear graves consecuencias a la víctima. “Por eso se debería prohibir el uso del reconocimiento facial en este contexto. Es demasiado peligroso como para dejarlo además a la discreción de una empresa privada”, opina Ella Jakubowska, coordinadora del programa de biometría facial de EDRI, una ONG basada en Bruselas que trabaja por la defensa de los derechos humanos en la era digital.
La preocupación de fondo que suscita entre los expertos el desembarco de Clearview AI en Ucrania es el uso que se pueda hacer en el futuro de su tecnología. Cuando el verano pasado el Ejército de EE UU abandonó Afganistán dejó sobre el terreno sistemas de lectura de iris y de los patrones faciales. Se sospecha que los talibanes están usando esos dispositivos junto con bases de datos elaboradas también por los estadounidenses para identificar y perseguir a colaboradores del régimen que derrocaron. “La base de datos de Clearview AI se puede usar contra los buenos o contra los malos”, apunta Adsuara.
“La introducción de su tecnología en un contexto bélico es una enorme bandera roja. No hay forma de llevar a cabo una vigilancia facial masiva de forma segura”, añade Jakubowska. “Puede que Clearview AI haya elegido esta vez alinearse con la opinión pública que apoya a Ucrania, ¿pero y si la próxima vez toma partido a favor de un régimen que quiera usar esa tecnología contra su propia gente?”.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.