_
_
_
_
_

Asunción Gómez-Pérez, académica de la RAE: “La tecnología es neutra, el problema somos nosotros”

¿Una científica informática en la RAE? ¿Sacrilegio? No: esta eminencia española en el campo de la inteligencia artificial desembarcó hace unos meses en el templo de la palabra para velar por la coherencia entre el lenguaje humano de siempre y el lenguaje de las máquinas.

Jesús Ruiz Mantilla
La académica Asunción Gómez Pérez.
La académica Asunción Gómez Pérez.Ximena y Sergio

Asunción Gómez-Pérez (Azuaga, Badajoz, 56 años) es una eminencia en el campo de la inteligencia artificial (IA). Figura entre el 2% de las autoridades académicas más citadas en el mundo, según el índice de la Universidad de Stanford, donde estudió, además de formarse en la Politécnica de Madrid, de la que es hoy vicerrectora de Investigación, Innovación y Doctorado. De lo que se ocupa esta científica informática es de la ontología de la IA, es decir, de traducir y definir en las máquinas el lenguaje común que deben utilizar para razonar e identificar a lo que se refieren. Por eso, desde el pasado 21 de mayo ocupa el sillón q de la Real Academia Española (RAE), para acompañar a la institución en los retos que su campo afronta respecto al idioma. Su perfil es tan insólito dentro de la institución que la respuesta a su discurso de ingreso —Inteligencia artificial y lengua española— fue respondido por Santiago Muñoz Machado, el director. Los retos de la carrera del idioma en el espacio tecnológico son enormes. Las empresas de este campo desarrollan sus propios programas y corpus con fuentes no del todo rigurosas y la RAE ha decidido implicarse para que Google, Amazon o Microsoft, por ejemplo, utilicen bien el idioma en ese ámbito.

Su ingreso en la RAE ¿no será una argucia para que cuando se reúnan los jueves aprovechen para consultarle a usted sus problemas con los móviles?

No, no, no…

¿Seguro?

Nada, nada. Tienen un departamento en la casa que se ocupa de eso. No están abusando, te digo yo que no.

¿Siguieron bien su discurso? Era muy técnico.

Yo creo que sí, muchos están interesados en temas de corpus, derechos de propiedad intelectual y que la inteligencia artificial sea respetuosa con las creaciones previas.

¿Cuándo vio por primera vez un ordenador?

En tercero de BUP, debía de tener 15 o 16 años.

¿Qué le contaron que había dentro?

Me lo enseñó un amigo mío que se llama Manuel Monterrubio, él ya había hecho sus pinitos con Basic y los Spectrum que existían entonces, pero yo llego a la informática cuando en el COU decido hacer una carrera que tuviera más matemáticas y física en vez de Farmacia. Mi familia procede de ese campo. Mi padre era médico.

Y se trasladó a Madrid…

Sí, mi prima estaba haciendo Ciencias Exactas en la rama de Computación y me convenció. Me dijo que al parecer eso iba a tener mucho futuro como preámbulo de la Informática. Entré en el año 1985 en la Politécnica.

Aquello entonces era un lenguaje ignoto.

Sí, en esos años solo se podía estudiar Informática en Madrid, País Vasco y Cataluña. Vine aquí porque estaba a siete horas de Badajoz, más cerca. No se sabía muy bien entonces lo que era la computación. Hacíamos prácticas en ordenadores que estaban en un centro de cálculo y había que reservar las horas. Fui descubriendo lo que era la computación a medida que hice los seis años de carrera.

¿Cuándo se dio cuenta de que lo que había elegido iba a ser lo que cambiaría el mundo hasta lo que tenemos hoy?

Creo que me di cuenta ya terminando la carrera. En tercero percibí el futuro que tendría la digitalización, pero lo que me enganchó fue la inteligencia artificial. Ya en tercero realizábamos sistemas expertos para detectar fallos en trenes. Algo práctico para aplicar en la vida real.

¿Llegó del mundo analógico y entendió que acabaríamos abocados al mundo digital?

Sí. Exacto. A finales de los ochenta y principios de los noventa estábamos en procesos elementales que se convertirían en fundamentales para todo el mundo.

Y la inteligencia artificial entonces, ¿en qué estadio andaba?

La IA trata de dotar a las máquinas de capacidades cognitivas. Intentábamos ver cómo cierto tipo de problemas que resuelve el hombre podían ser afrontados por programas informáticos. Los sistemas expertos permitían conceptualizar problemas y soluciones que luego se implementaban en un lenguaje computacional. Internet entonces no estaba al alcance de todo el mundo. Los ordenadores no tenían una capacidad de cálculo como la que tienen hoy. Trabajábamos con problemas de juguete, acotados por la cantidad de datos que podían manejar. No como ahora, que haces cualquier consulta en internet y automáticamente te responde.

Como contó usted en su discurso, el ordenador de IBM más potente de la época había costado unos 25 millones de dólares y tenía menos capacidad que un móvil que hoy cueste 200 euros. Ese dato ¿cuantifica el salto que hemos dado en pocas décadas?

Cuando surgen esos ordenadores lo hacen para facilitar el cálculo numérico. Para eso los inventan. Pero llega un momento en que tratan de ver si pueden ir más allá del mero cálculo y ahí nace la inteligencia artificial, para ver si las máquinas pueden emular el razonamiento de los seres humanos. La IA se enuncia en 1956, en la Conferencia de Dartmouth, ahí comienzan las universidades y las empresas a trabajar, pero el gran salto se da en los años noventa. Alan Turing, con su máquina Enigma para descifrar mensajes de espionaje, es un precedente en la Segunda Guerra Mundial. Pero a mí me gusta mencionar a Leonardo Torres Quevedo, que diseñó dos máquinas para jugar al ajedrez.

Alguien a reivindicar mucho, efectivamente.

Fue un inventor único en su tiempo, no solo hizo eso, también otras muchas cosas, como el transbordador del Niágara…

La IA siguió muy unida en el desarrollo de sus investigaciones al ajedrez, ¿por qué?

Porque es un juego complejo. Acota en un espacio, el tablero, con un número finito de piezas y reglas que se pueden ejecutar. Puedes elaborar una estrategia, por eso permite explorar con todo eso las posibles soluciones hasta un determinado punto. Así hasta que, en 1996, la máquina Deep Blue derrotó a Kaspárov.

La rama en la que usted se ha especializado es la ontología de la IA, ¿en qué consiste?

Podríamos dividir el campo en dos ramas. Una de ellas es la simbólica, utiliza palabras, la ontología. Otra es subsimbólica, aprende. La primera razona y explica, la segunda, como digo, aprende.

¿Esta segunda es la que más temor nos produce?

Es la que a mucha gente le da miedo, sí. Pero bueno, no sé si hay que decirlo así.

Hombre, produce tanto miedo que hasta quienes la han llevado hasta sus mayores límites hoy, como Sam Altman, piden que se regule.

Sí, pero lo ha hecho después de que su empresa, OpenAI, lance el ChatGPT, es decir, de poner el producto en el mercado. El problema no es la IA, sino cómo se utiliza.

Es decir, ¿el problema somos nosotros?

Eso es. La tecnología es neutra. El problema viene del uso que le demos. Siempre ha sido así. El problema somos nosotros.

Como la ontología utiliza palabras, eso explica que usted haya entrado en la RAE. ¿Para qué?

El diccionario incluye definiciones de palabras para que nosotros seamos capaces de entender conductas u objetos. La ontología ayuda al ordenador a identificar las propiedades de un objeto y diferenciarlo de otros.

Concreta, por tanto.

Sí, y además indica que existen ciertas relaciones entre los objetos, que la mesa y la silla suelen acompañarse, por ejemplo.

Es decir, ¿elaboran diccionarios para ordenadores en su campo?

Eso es, sí, pero va más allá. Los sistemas cogen palabras, las transforman en números y luego vuelven a generar palabras, con lo que pueden haber perdido el significado de la primera fuente.

¿Cómo la convencieron para entrar en la RAE?

La RAE ha decidido introducir todas las tecnologías de IA en sus procesos de trabajo con el lenguaje. La institución está preocupada por el hecho de que las grandes empresas tecnológicas no generen, digamos, dialectos propios del español, no se inventen una gramática propia y definiciones porque para eso está la RAE desde hace 300 años. La Academia está preocupada por velar por el buen uso del español en las redes sociales y los medios de comunicación en las distintas áreas geográficas que unen en la lengua a más de 500 millones de personas.

A eso unen la inquietud por el hecho de que, en el ámbito tecnológico e internet, la lengua dominante sea el inglés.

Es un problema también importante. La tecnología se crea principalmente en inglés, en eso vamos por detrás. Por eso, las grandes empresas tecnológicas, cuando traducen, deben apostar por utilizar la base de sus programas en español, pero en un español correcto. Eso requiere materiales de mucha calidad y bastante inversión. En eso se basa el proyecto LEIA, básicamente, donde se han realizado avances con las empresas tecnológicas.

¿Cuáles?

Google, Amazon, Microsoft y Telefónica, hasta la fecha.

¿Y Meta?

Hoy en día, no.

¿No la consideran prioritaria?

Para mí en esto influye más Google, por ejemplo. Cuando alguien buscaba no hace mucho una palabra en español, la definición que aparecía en primer lugar era la del Diccionario Oxford, hoy aparece la de la RAE, lo cual está muy bien. Otro objetivo del proyecto LEIA es también construir una plataforma abierta en la nube con todas las obras y trabajos de la RAE, con recursos, diccionarios, gramática, corpus. Así construiremos nuevas aplicaciones que sirvan a la Academia y a los hispanohablantes en un sistema de innovación compartida. Estamos empezando a trabajar en eso.

¿Y cuentan con fondos suficientes? La RAE ha sido hasta hace muy poco una institución en la que prácticamente había que pedir por favor fondos y ayudas al Estado cuando se ocupa de algo que nos concierne a todos: la lengua.

Esto cuesta dinero. El Gobierno ha aportado unos fondos, pero hace falta inversión importante que vaya más allá de los fondos del Plan de Recuperación Europeo que tenemos previsto.

En total, para la RAE y otras instituciones, 340 millones, tal como anunció Nadia Calviño en el último Congreso del Español en Cádiz. ¿Suficiente?

Nunca es suficiente. Tiene que abordarse como una inversión sostenible en el tiempo. Eso lo tenemos clarísimo.

¿Desde cuándo existen modelos de lenguaje en español de la IA?

La primera apuesta fue un sistema que se llamaba María, para los corpus de la Biblioteca Nacional y el Centro de Supercomputación de Barcelona. Luego van otros: uno llamado Rigoberta, BETO en 2019 y BERT en 2018, que se desarrolla en Chile. Pero ahora, ninguno llega a los 30 millones de parámetros que tienen los que desarrollan las empresas tecnológicas. Esos son el GPT del español.

Si los que ha citado primero surgen del ­mundo académico e instituciones, ¿existe una pugna abierta entre esos y los que desarrollan las ­empresas?

Bueno, los de la iniciativa privada tienen más computación, más corpus. La clave está en el proceso. Toman grandes cantidades de textos y palabras y responden en virtud de esos parámetros. A la hora de generar modelos de lenguaje es importantísimo disponer de corpus que están formados con rigor. Los sesgos serán menores, el lenguaje más rico y la variedad geográfica mayor. El idioma será mucho más fiable y no tendrá, digamos, alucinaciones al mezclar contenidos no relacionados.

Si no, en las respuestas, ¿puede salir un poema dadá?

Exactamente.

¿Lo mejor en este ámbito es el famoso ChatGPT?

Es el que tiene ahora mismo mayor cuota de mercado. Pero todas las empresas están desarrollando el suyo.

¿Cuál cree que se impondrá?

Las predicciones en tecnología suelen dar error. Se impondrá la que mayores recursos computacionales de infraestructura tenga, la que esté entrenada con mejores textos y disponga de buenos ingenieros para los algoritmos. Todas andan en eso.

¿Cree que en los últimos años ha mejorado la conciencia ética en el mundo del poder digital y tecnológico?

Creo que sí, que empieza a surgir una clara conciencia, por ejemplo, respecto a aspectos que tienen que ver con la sostenibilidad o la ecología. Se ha dado un gran paso en la regulación con las dos leyes aprobadas en la Unión Europea, la Digital Act y la de IA. Esta debe ser regulada responsablemente. Varios países, organismos y empresas son conscientes de eso. Ahora ya no partimos de cero en este sentido. Además, disponemos de leyes de protecciones de datos en varios campos o en el sector público y el sistema sanitario. Ya tenemos reglas.

¿Hemos aprendido suficiente de la jungla que supuso la irrupción de internet a finales del siglo pasado?

La tecnología va siempre por delante, pero su uso responsable depende también de las empresas para que saquen a la venta productos seguros, que generen confianza en el ciudadano y respeten los derechos fundamentales.

¿Es importante, por otra parte, no incrementar el pánico?

Sí, la tecnología ayuda al progreso. Es cierto que otros la utilizan para generar división, enfrentamiento, bulos, hacer mucho daño.

Lo malo es que suelen ser elementos que quieren alcanzar el poder.

Hay que buscar el equilibrio. Insisto, las empresas tecnológicas deben pensar en los aspectos utópicos y distópicos que pueden generar sus productos en el mercado cuando los sacan. En las tesis doctorales que dirigimos aquí intentamos siempre ver el lado positivo y analizar el negativo. En la escuela tenemos una asignatura de alcances éticos y legales, obligamos a ejercer contrapesos, crear conciencia entre los alumnos de cómo pueden contribuir al bien común como ciudadanos. Muchos productos han pasado del laboratorio a la sociedad con un impacto enorme. No ha existido un proceso intermedio que evite determinados efectos.

Luego son ellos los que se asustan con el uso que les da cierta gente, repito. Los monstruos creados cuando ya no hay marcha atrás.

Volviendo a Altman, él fue quien puso el producto en el mercado y se lo podía haber pensado dos veces. Pasó con Microsoft y un programa, el TAY, en 2017, que lo retiraron a los dos días al ver que producía conductas no apropiadas, como comentarios racistas y demás. Luego se han aliado con OpenAI, pero en fin…

Hacía 90 años que el director de la RAE no respondía un discurso de ingreso.

Fue un honor.

¿Indica eso hasta qué punto su perfil era tan raro dentro de la institución y que solo podía ser explicado por una necesidad de estrategia con vistas al futuro?

El director ya había empezado a lanzar esos mensajes dentro de la institución. Estaban preocupados y concernidos sobre el efecto de la inteligencia artificial en el ámbito del español.

¿Hasta el punto de poner en riesgo la buena salud del idioma?

En la comunicación entre personas con medios digitales, tenemos aplicaciones en la mensajería que nos recomiendan una palabra. Lo hacen a través de lo que aprenden de nosotros por el uso más frecuente.

Y son muy puritanos, les cuesta reconocer, por ejemplo, un taco pertinente y bien metido en el WhatsApp.

Bueno, en parte, sí.

¡Pero si están en el diccionario!

Ya, pero lo grave es que esas palabras que usan ellos produzcan un empobrecimiento o una confusión a la hora de expresarlas. Si cuentan con un buen diccionario se enriquecerá con sinónimos y sin faltas de ortografía.

También Santiago Muñoz Machado, en su discurso, remarcó que usted está entre el 2% de las autoridades académicas más citadas en el mundo según el índice de la Universidad de Stanford. ¿La tengo que tratar de eminencia?

¡No, hombre, no! Hay muchos investigadores, a mí estas cosas me dan mucha vergüenza.

¿Se sonrojó cuando el director lo mencionó?

No sé, quizás se me notaría el colorete…

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Jesús Ruiz Mantilla
Entró en EL PAÍS en 1992. Ha pasado por la Edición Internacional, El Espectador, Cultura y El País Semanal. Publica periódicamente entrevistas, reportajes, perfiles y análisis en las dos últimas secciones y en otras como Babelia, Televisión, Gente y Madrid. En su carrera literaria ha publicado ocho novelas, aparte de ensayos, teatro y poesía.
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_