_
_
_
_
_

¿Por qué nos hemos creído la foto del Papa con el abrigo blanco?

La inteligencia artificial generativa ya está desarrollada para hacernos caer en unos bulos que hasta hace poco requerían de tecnologías sofisticadas

Emanoelle Santos
La imagen generada por inteligencia artificial generativa de papa Francisco. No es una foto verdadera.
La imagen generada por inteligencia artificial generativa de papa Francisco. No es una foto verdadera.Pablo Xavier vía Midjourney

“Ya no puedes creer en NADA que provenga de un dispositivo digital. Contrástalo todo”, dice el periodista Robert Scoble en un tuit que acompaña a una presunta imagen de Elon Musk cogiendo la mano de la política estadounidense Alexandria Ocasio-Cortez, conocida como AOC. Es uno de los muchos mensajes de alerta que se han visto en unos días llenos de fakes en internet. Imágenes de Donald Trump arrestado y su eventual huida de la cárcel y del papa Francisco con un sofisticado abrigo de plumas de Balenciaga, las imágenes falsas e hiperrealistas que circulan en las redes desde la semana pasada han mostrado que la información entra en una nueva era.

La inteligencia artificial (IA) generativa ya está suficientemente desarrollada para hacernos caer, al menos a simple vista, en unos bulos que hasta casi nada requerían de tecnologías complejas y usuarios expertos en manipulación digital. Hoy, prevenir que seamos engañados por las pantallas será cada vez más difícil, según los expertos. El blockchain se presenta como una solución compleja y a largo plazo, pero por ahora no hay más que un remedio de toda la vida: comprobar las fuentes, estar atento a los detalles y dudar de todo.

No es la primera vez que las imágenes generadas por la herramienta de IA Midjourney se han vuelto virales, pero ninguna se ha difundido tanto como el Papa de Balenciaga. Primero, porque parece mucho más verosímil que los demás supuestos de personas que tenían un aspecto artificial, como si fuera de un videojuego o con muchos filtros. También porque el contexto que rodea al pontífice puede suponer que quizá se vestiría de tal manera.

Sin embargo, al hacer zoom, se puede notar el tamaño de la oreja, la mano cortada que no está del todo agarrando la taza de café, la deformidad de las gafas o el crucifijo donde no se ve a Jesucristo esculpido y sin parte de la cadena que lo sostiene. Estos detalles indican que no es una fotografía real, sino que matizan los fallos de la IA: una herramienta que conoce bien la superficie de la realidad, pero no cómo interactúan los objetos físicos ni todas las características del cuerpo humano. Al menos por ahora.

Aun así, son factores que pasan desapercibidos, sobre todo si se está escroleando rápido y en el formato del móvil. En algunas imágenes del falso arresto de Trump, que circularon en las redes unos días antes, las evidencias de que se trata de un fake fueron más notables. El primer aspecto también es contextual: la detención del expresidente estadounidense sería portada en los grandes medios de comunicación, y no lo fue. Segundo, como ya habían afirmado algunos artistas, las herramientas generativas carecen de la habilidad de representar detalles del cuerpo humano, especialmente las manos. En algunas imágenes de Trump, las proporciones de su cuerpo pueden verse distorsionadas o incluso derretidas y hay un aspecto borroso. En otras, se observan textos distorsionados.

Pero estas herramientas están mejorando y es cuestión de tiempo que dejen de fallar en esos detalles y pasen a crear imágenes falsas que parecen extremamente reales, según los especialistas. La nueva versión del Midjourney ya es capaz de generar manos humanas realistas, eliminando lo que hasta ahora era la forma más fácil de identificar una imagen artificial.

La velocidad a la que se producen las mejoras es lo que genera inquietud. Elena Verdú, miembro del grupo de investigación Inteligencia Artificial y Robótica de la Universidad Internacional de La Rioja, ha explicado a Maldita.es que tan solo un mes es suficiente para que queden obsoletas algunas de estas recomendaciones para identificar a imágenes falsas. Estamos ante una preocupación colectiva sobre el poder que esas herramientas ejercen sobre la sociedad. Tanto es así, que expertos en inteligencia artificial reclamaron el miércoles en una carta abierta que se frenara seis meses la “carrera sin control” de los ChatGPT, que también utiliza IA generativa.

El periodista Robert Scoble explica en el tuit otras formas de poder identificar los deepfakes. Lo primero es contrastar con múltiples fuentes, de buena reputación, y verificar su credibilidad. También valorar el contexto. “Use el pensamiento crítico: analice la información que recibe y considere el contexto, la consistencia y la lógica detrás de ella”, sugiere el autor.

Cuando el contenido se viraliza, también sirve comprobar lo que se puede ver en internet. Google, por ejemplo, proporciona una herramienta de búsqueda inversa de imágenes, dónde es posible cargar una foto y chequear dónde ya se ha compartido y qué dice la gente al respecto. Si una foto supuestamente tomada por un fotoperiodista fue publicada por primera vez por desconocido anónimo en las redes, es una gran razón para desconfiar.

En Twitter también existe la opción de calificar un contenido como falso, aunque es necesario que mucha gente lo haga para que haya un alerta en la publicación. Según recopila la revista Times, existe un abanico de software en el mercado que dice ser capaz de detectar a los deepfakes. Sin embargo, hay pocas herramientas gratuitas y fiables, o que no están disponibles para el usuario final. Uno de los detectores, que está alojado en la plataforma de IA Hugging Face, pudo decir “con un 69% de certeza” que la imagen del Papa fue generada por IA. Pero cuando se le presentó la presunta imagen de Musk con OAC, la herramienta falló al contestar que la foto era 54% verdadera.

Otros expertos hablan de cómo el blockchain podría ayudar a combatirlos. Conocida por ser la tecnología detrás de las criptomonedas como Bitcoin, el Fórum Económico Mundial apuntó su capacidad de proporcionar una validación de la autenticidad y una cadena de custodia clara que “la hace potencialmente eficaz” para rastrear y comprobar todo tipo de contenido, no solo financieros. La clave es que esta tecnología tiene un mecanismo que no permite la alteración del mensaje, ni del momento de publicación o el origen. Pero no es una solución para el presente: de la teoría a la práctica, todavía queda un largo recorrido.

El artículo señala que el blockchain también tiene sus limitaciones. Mientras que es capaz de verificar la existencia de un documento, no puede probar la propiedad intelectual, por ejemplo. Además, para que sea realmente efectiva para el usuario final, deberá integrarse en los chips que alimentan los teléfonos inteligentes y los ordenadores. Algo que depende también de una cohesión entre las comunidades internacionales, los gobiernos, las empresas y la sociedad civil para dar forma a un modelo de gobernanza al consumo de contenido digital.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Emanoelle Santos
Redactora de la sección de Tecnología. Escribe sobre inclusión digital, inteligencia artificial e investigaciones científicas. Antes de incorporarse a EL PAÍS, trabajó para startups del sector financiero y comercio electrónico en Brasil. MBA por la Universidad de São Paulo y Máster de Periodismo UAM-EL PAÍS.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_