_
_
_
_
columna
Artículos estrictamente de opinión que responden al estilo propio del autor. Estos textos de opinión han de basarse en datos verificados y ser respetuosos con las personas aunque se critiquen sus actos. Todas las columnas de opinión de personas ajenas a la Redacción de EL PAÍS llevarán, tras la última línea, un pie de autor —por conocido que éste sea— donde se indique el cargo, título, militancia política (en su caso) u ocupación principal, o la que esté o estuvo relacionada con el tema abordado

El engañoso olor de la verdad

Nuestra confianza en que somos capaces de distinguir los vídeos reales de los falsos carece de apoyo empírico

Eugenio, recreado mediante IA para el especial de comedia de Movistar + 'Eugenio no hay más que uno'.
Eugenio, recreado mediante IA para el especial de comedia de Movistar + 'Eugenio no hay más que uno'.
Javier Sampedro

Este es un año electoral en medio mundo, y los intoxicadores de masas ya tienen afiladas sus armas para interferir con los procesos a mayor bien de sus sombríos intereses. La fiesta ya ha empezado en Estados Unidos. Los votantes de New Hampshire para las primarias recibieron la semana pasada una llamada robótica donde el presidente Joe Biden les animaba a abstenerse. Se trataba en realidad de un deepfake (mentira profunda), una técnica de inteligencia artificial (IA) que permite imitar la voz, la cara o los gestos de cualquier personaje. Todos hemos visto ejemplos experimentales en el último año. En este caso se había usado un sistema de ElevenLabs, una startup de inteligencia artificial norteamericana, que ya ha anunciado el bloqueo de la cuenta del intoxicador. Pero hacer esto es ya tan fácil y barato que cada cuenta yugulada generará siete nuevas, como las cabezas de la hidra mitológica.

Las mentiras profundas no suponen un salto filosófico respecto a las mentiras a secas (fakes) que ya distorsionaron impunemente la elección en la que Donald Trump llegó al poder y la campaña que sacó al Reino Unido de la Unión Europea, por citar sus dos mayores éxitos. Los fundamentos psicológicos de ambas modalidades son los mismos: la gente tiende a creerse, y a propagar, cualquier mentira que coincida con sus prejuicios; etiquetar un bulo como tal no impide que se lo sigan creyendo y lo sigan diseminando; la repetición machacona de una falsedad la convierte en verdad para las audiencias acríticas. Pero un vídeo bien falsificado funciona aún mejor que una mentira escrita. Ver es creer, al fin y al cabo. Nos podemos preparar para lo peor.

Nuestra confianza en que somos capaces de distinguir los vídeos reales de los falsos carece de apoyo empírico. Una investigación de psicología experimental presentada en iScience con 210 voluntarios muestra que no distinguimos los deepfakes de los vídeos verdaderos, que encima tendemos a considerar falsos los que son auténticos, y que todos sobrestimamos nuestra habilidad de discernimiento. Por muy listo que te creas, puedes hundirte hasta las trancas en las arenas movedizas de la mentira profunda.

Los científicos de la computación llevan tiempo buscando formas de distinguir un vídeo real de uno falso, y cada vez resulta más difícil. Es verdad que, incluso con la IA más moderna, suele haber detalles que delatan el fraude. Todos nos quedamos atónitos con el deepfake del papa Francisco envuelto en un impresionante papa-plumas blanco. Aquello parecía de verdad. Un experto puede detectar que no lo es, porque la sombra de sus gafas está en un lugar de la cara que no encaja con el resto de la iluminación de la escena. De modo similar, el habla generada por IA falla en los titubeos, las respiraciones y las sutilezas del movimiento de los labios. Pero hay que ser un experto para darse cuenta. Los demás no nos fijamos en esas cosas, y es demasiado pedirnos que lo hagamos.

Hay muchas empresas grandes y pequeñas desarrollando software para detectar deepfakes, pero los intoxicadores tampoco se están quietos. El resultado va a ser una carrera de armamentos, como la que mantienen las conchas cada vez más duras de los caracoles y las pinzas cada vez más fuertes de las langostas. Pura biología.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_