_
_
_
_
En colaboración conCAF
_

Nina da Hora: “La tecnología refuerza el problema de racismo estructural de Brasil”

La ‘hacker’ antirracista es una de las voces jóvenes más activas del movimiento que busca aumentar la participación de mujeres negras en la tecnología

La hacker antirracista y científica de la computación Nina da Hora.
La hacker antirracista y científica de la computación Nina da Hora.Soledad Malgor /Khipu

EL PAÍS ofrece en abierto la sección América Futura por su aporte informativo diario y global sobre desarrollo sostenible. Si quieres apoyar nuestro periodismo, suscríbete aquí.

La científica Nina da Hora (Río de Janeiro, 27 años) es una de las voces jóvenes más activas del movimiento brasileño que busca aumentar la participación de las mujeres negras en el ámbito de la tecnología y la innovación en Brasil. Nacida en la periferia de Río y criada por cinco mujeres profesoras, entre madre, tías y abuela, asegura que a los 6 años descubrió que se dedicaría a la computación, fascinada por las posibilidades de juego y creación que le ofrecía su primer ordenador. En el camino, sin embargo, observó que eran muy pocas las personas negras que accedían al pujante universo tecnológico brasileño. Y mujeres negras, menos aún. De acuerdo con diversas investigaciones citadas por el laboratorio Preta Lab, ellas representan el 28% de la población total del país, pero solo un 3% de las matriculadas en carreras de ingeniería de la computación y un 11% de quienes trabajan en empresas tecnológicas.

Para empezar a cambiar esta realidad, Nina da Hora, científica de la computación, investigadora, profesora y hacker antirracista, propone democratizar el acceso a la tecnología y transparentar su funcionamiento con un lenguaje accesible, como el que ella misma emplea con su abuela para explicarle la razón de ser de los algoritmos. “Tenemos que hacernos un tiempo para reflexionar sobre la inteligencia artificial y lo que ella puede generar”, le dice a América Futura tras haber participado en el encuentro latinoamericano de inteligencia artificial KHIPU, que tuvo lugar en Montevideo a comienzos de marzo. Convencida, defiende la idea de una ciencia plural, abierta a la sociedad, y aboga especialmente por la prohibición de la tecnología de reconocimiento facial, como ha ocurrido en ciudades como San Francisco, porque considera que es ineficiente y refuerza el racismo estructural que persiste en Brasil.

Pregunta: ¿A qué se dedica una hacker antirracista?

Respuesta: Es alguien que utiliza sus habilidades en ciberseguridad o programación para combatir el racismo y promover la igualdad. Por ejemplo, exponiendo a individuos racistas, eliminando contenido discriminatorio en línea, protegiendo a las comunidades marginadas de ataques cibernéticos. Además, en mi caso, cuando ingresé a estudiar computación me encontré con un universo que marginaba a las personas como yo: mujer, negra, de la periferia de Río de Janeiro. Entonces me propuse buscar maneras de acercar ese colectivo a la tecnología. Soy hacker para quebrar esos patrones sociales y mitigar los daños del racismo en la sociedad.

P. ¿Cómo le ha ido en esa tarea?

R. He creado algunas iniciativas, como el podcast Ogunhê, en el que presento la historia de científicos negros y sus contribuciones al mundo. Además, puse en marcha un instituto de investigación con un equipo compuesto íntegramente por personas indígenas y negras. Con ellos estamos abriendo caminos para que las tecnologías sean accesibles para las comunidades marginadas en Brasil.

P. ¿Qué le ha explicado a su abuela sobre los algoritmos o la inteligencia artificial?

R. Le enseñé qué es un algoritmo tomando como ejemplo la receta de un pastel. Ambos pueden parecerse porque son conjuntos de instrucciones que, si se siguen correctamente, producirán un resultado concreto. El algoritmo se usa para resolver un problema o realizar una tarea específica en el ámbito de la informática o de la matemática. La inteligencia artificial es un área en desarrollo que estudia las posibilidades de crear máquinas que utilicen algoritmos, para desempeñar tareas repetitivas que puedan ayudar a la sociedad.

P. En términos generales, ¿cree que nos está ayudando o volviendo más perezosos y acríticos?

R. Nos hace falta más pensamiento crítico. No razonamos sobre lo que estamos usando, hacemos tareas repetitivas, como máquinas. Por eso tenemos que conversar con los niños, con los jóvenes, para volver más accesibles los conceptos relacionados con la tecnología y hacernos un tiempo para reflexionar sobre la inteligencia artificial y lo que ella puede generar. Pero la apertura de la ciencia a la sociedad lleva tiempo.

P. ¿Qué áreas de la inteligencia artificial resultan más problemáticas?

R. La visión artificial (del inglés computer vision) es una de ellas, porque es invasiva y no hay privacidad para quien la utiliza. Por ejemplo, cuando desbloqueo mi celular con una foto del rostro, está invadiendo mi privacidad. El riesgo es que no sabemos para dónde va esa imagen, dónde va a ser almacenada ni todo lo que es capaz de hacer con la reconstrucción de ese rostro. En Brasil, muchos negros han sido detenidos erróneamente, porque en los bancos de imágenes las personas con piel oscura son etiquetadas como peligrosas o con mayor probabilidad de cometer un delito. La Red de Observatorios de Seguridad monitoreó en 2019 la tecnología de reconocimiento facial en cinco estados y demostró que agrava el encarcelamiento de los negros, además de ser ineficiente.

Nina da Hora en el Encuentro latinoamericano de inteligencia artificial, en Montevideo.
Nina da Hora en el Encuentro latinoamericano de inteligencia artificial, en Montevideo.Cortesía

P. Pero ese sesgo racial de las máquinas no es magia, proviene en todo caso de quienes las programan.

R. Brasil usa tecnologías importadas y las utiliza en nuestra sociedad, que tiene un problema de racismo estructural. La tecnología refuerza eso cuando una persona es detenida por reconocimiento facial, mediante cámaras que están en el espacio público. Esas cámaras tienen un algoritmo que reconoce rostros y busca en su banco de fotos quién puede ser esa persona. Nosotros no tenemos acceso a esa base, no hay transparencia. No conocemos las etapas de su desarrollo y no entendemos sus asociaciones. El movimiento Tire meu rosto da sua mira (Quite mi rostro de su vista, en español), del que participo, intenta prohibir el uso de esa herramienta en Brasil.

P. ¿Descarta que se pueda mejorar?

R. Desde mi punto de vista, la tecnología del reconocimiento facial no tiene posibilidades de mejorar, es extremadamente peligrosa y como sociedad no tenemos la madurez necesaria como para tener una tecnología como esa, sin discutir antes sobre el racismo, sobre la violencia contra la mujer o la comunidad LGBTI. Estamos intentando combatir estos problemas y esa tecnología solo los refuerza.

P. Usted habla de descolonizar la tecnología para mejorar el uso de la inteligencia artificial. ¿Qué implica?

R. El primer paso es escuchar y observar el territorio donde vivimos, desde una visión de Brasil y no de Sillicon Valley, en EEUU. He buscado referentes en tecnología en México, Chile, Uruguay o Argentina, que están más próximos a nuestra cultura y movimientos sociales. Por ejemplo, aprender otros idiomas diferentes al inglés es una forma de poner en práctica esa descolonización. Si solo aprendo inglés, voy a pensar en personas referentes en inglés y haré investigaciones en esa lengua, con lo cual ya estoy siendo direccionada, a concordar y a no a discrepar. Hay mucho poder concentrado en la tecnología, unos pocos dominan a muchos países. La descentralización de ese poder implicaría tener más soberanía digital y crear tecnologías propias en lugar de importarlas. Pero hoy no tenemos una estrategia para organizar y gobernar nuestros propios datos.

P. Según la ONU, de las 15 plataformas digitales más importantes, 11 son de EEUU y cuatro chinas.

R. De esas 15 grandes empresas, hay cinco, Amazon, Google, Apple, Google y Microsoft, que comparten entre ellas lo que conversamos, cómo intercambiamos ideas, cómo investigamos. Mi propuesta es desarrollar más programas abiertos, que sean transparentes en cuanto a la forma en que fueron hechos. O sea, que la ciencia sea más accesible para disminuir la concentración y el control. Claro que esas empresas no lo quieren y desarrollan un capitalismo de vigilancia más agresivo, en el que las personas no importamos, lo que importa son los datos.

P. Sin embargo, esas empresas levantan la bandera de la diversidad. ¿No lo ve así?

R. Buscan adaptarse a lo que nosotros reclamamos; por ejemplo, que haya más personas negras en el sector tecnológico. Pero el perfil promedio de quienes investigan y desarrollan estas tecnologías es el de un hombre blanco, investigador de clase media o alta, que habla varios idiomas y que no sabe escuchar.

P. ¿Qué posibilidades tiene Brasil de desarrollar su propia tecnología?

R. Varios representantes de la sociedad civil y de los centros de investigación estamos dialogando con este Gobierno (de Lula da Silva), que es más democrático, para elaborar una estrategia de gobernanza de internet en Brasil. Tenemos excelentes investigadores y profesionales que están organizando una estrategia de soberanía digital para que nuestros datos se queden en el país, con una inversión del Estado y no del sector privado.

P. Eso suena complejo en estos tiempos de límites digitales tan difusos

R. Si comenzamos de a poco, por etapas, es posible. Y todo lo que hacemos hoy, alguien lo va a continuar.



Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_