_
_
_
_
_
columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

GPT-4 está alineado, pero con qué

En una industria que aspira a ser cada vez más indistinguible de la magia, es más importante que nunca señalar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen

Representación de datos digitales.
Representación de datos digitales.UNSPLASH/CC/CONNY SCHNEIDER (UNSPLASH/CC/CONNY SCHNEIDER)
Marta Peirano

En su famoso artículo científico de 1960, titulado Algunas consecuencias morales y técnicas de la automatización, Norbert Wiener advierte que si, para conseguir nuestros propósitos, utilizamos un agente mecánico cuya operación no podemos intervenir de forma efectiva una vez ha sido activada, tenemos que estar extremadamente seguros de que el propósito programado en la máquina es el propósito que realmente deseamos. Este alineamiento entre la intención humana y el programa de la máquina es uno de los problemas fundamentales de la Inteligencia Artificial. También es el concepto al que se refirió Sam Altman la semana pasada cuando presentó GPT4 como “su modelo más capaz y alineado hasta la fecha”.

El astuto CEO de OpenAI invoca al padre de la cibernetica para ofrecer una imagen de responsabilidad y seguridad en el lanzamiento del producto que ha desbocado el mercado de los modelos generativos. Y sin embargo, el lanzamiento de GPT4 incluye un paper de 98 páginas de pretensiones académicas pero naturaleza publicitaria donde se puede leer lo siguiente: “Dada la competencia en el mercado y las implicaciones de seguridad de modelos a gran escala como el GPT-4, este informe no contiene más detalles sobre la arquitectura (incluyendo el tamaño del modelo), hardware, capacidad de cómputo de entrenamiento, construcción de conjuntos de datos, método de entrenamiento o similar”. En otras palabras, es imposible saber cómo y con qué material ha sido entrenado el modelo. Eso elimina la posibilidad de determinar con qué intereses y objetivos ha sido programado el modelo más alineado de la empresa de Altman. Irónicamente, se sigue llamado OpenAI.

Los Grandes Modelos de Lenguaje —Large Language Model o LLM— consisten en un algoritmo de aprendizaje profundo entrenado con grandes cantidades de texto, organizado en bases de datos. Estos elementos ya suponen un reto para la alineación. Las Redes Neuronales Profundas son opacas hasta para sus propios desarrolladores y las bases de datos suelen ser una representación pobre o sesgada del mundo. Pero hay estrategias que pueden acercarnos al objetivo. En su imprescindible The Alignment Problem, Brian Christian ofrece tres puntos de apoyo: representación, justicia y transparencia.

Cuando un tema da mucho que hablar, lee todo lo que haya que decir.
Suscríbete aquí

La representación se refiere al entrenamiento. Es necesario que los data sets sean un reflejo del mundo en el que quiere operar la IA. La justicia, a los sesgos. Un sistema judicial injusto o una cultura de empresa machista producen bases de datos que reflejan esos valores. Si entrenamos una IA con sus ejemplos, estaremos automatizando ese patrón. Finalmente, la transparencia es la única garantía de que los dos primeros puntos han sido abordados por la empresa que desarrolla el modelo, y que se ha invertido el tiempo y el esfuerzo necesario en que sea seguro para usuarios, sistemas y empresas, antes de empezar a mediar en todos los aspectos de nuestra vida.

GPT-4 es una caja negra. En una industria que aspira a ser cada vez más indistinguible de la magia, es más importante que nunca señalar la distancia entre lo que dicen los presuntos visionarios y lo que realmente hacen. En este caso, fundar un laboratorio de investigación con la intención expresa de garantizar un desarrollo transparente de una tecnología de enorme potencial transformador y hacer exactamente lo opuesto.

Suscríbete para seguir leyendo

Lee sin límites
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_