_
_
_
_
_

Pregunta para ChatGPT: ¿quién me saca del lío en el que me has metido?

La Unión Europea trabaja en normas específicas sobre responsabilidad de la inteligencia artificial

Asistentes a la feria Cloudfest, de computación en la nube, el pasado marzo en Alemania.
Asistentes a la feria Cloudfest, de computación en la nube, el pasado marzo en Alemania.Philipp von Ditfurth (picture alliance/ Getty Images)

La Inteligencia Artificial (IA) generativa, de la que ChatGPT es el máximo exponente, ofrece grandes ventajas, por su capacidad de elaborar con rapidez casi cualquier tipo de documento. Pero también es capaz de generar contenidos totalmente falsos que, pueden dañar la reputación o los derechos de las personas. Así le sucedió al profesor de derecho norteamericano Jonathan Turley, que apareció citado por ChatGPT como acosador sexual, cuando un compañero que estaba realizando un estudio al respecto pidió a esta IA ejemplos de académicos que hubieran cometido ese delito. Según el Washington Post, el chat citó a Turley como incluido en una noticia publicada por ese medio que, en realidad, nunca había sido publicada.

Más recientemente, el Comité Nacional Republicano de ese país ha publicado un vídeo electoral en el que ataca al presidente Biden utilizando imágenes falsas (deep fakes) producidas por una IA generativa. Aunque al principio del vídeo se advierte de esta circunstancia, el asunto no deja de constituir un precedente muy preocupante, como recientemente denunció Henry Ajder, un presentador de la BBC experto en este tipo de tecnología, en su cuenta de LinkedIn. Ajder considera que este puede ser el comienzo de una campaña presidencial en la que los partidos, o sus partidarios, recurran a contenidos artificiales mucho menos comedidos.

Los mecanismos de exigencia de responsabilidad por estos hechos están todavía en pañales, pero sin duda van a experimentar un rápido desarrollo. Como explica Jorge Morell, fundador de Legaltechies, “hace pocas fechas se ha conocido la primera demanda contra OpenAI, la empresa que ha diseñado ChatGPT, por señalar al alcalde de un pequeño municipio local, responsable de destapar uno de los mayores escándalos de sobornos del país, como uno de los culpables condenados por tales hechos”.

Ante este panorama, expertos como Joaquín Muñoz, socio de Bird&Bird, consideran que los mecanismos legales de los que disponemos en la actualidad son suficientes para exigir cualquier tipo de responsabilidad derivada del uso de estas herramientas, ya que los sistemas de IA generativa no dejan de ser el medio, es decir, la tecnología en la que suceden los hechos”. Lo que habrá que determinar, añade este experto, es el ámbito material en el que se encuentre la supuesta infracción (protección de datos, propiedad intelectual, competencia...), para proceder a articular la reclamación por las vías disponibles.

Muñoz considera también que la exigencia de responsabilidad por el uso de estas herramientas puede ir en una doble dirección: Por un lado, los trabajadores de la empresa o empresas que utilicen estas herramientas (no solo ChatGPT, cualquier IA generativa), “deberán asumir la responsabilidad derivada de compartir con las empresas dueñas de las herramientas (OpenAI en el caso de ChatGPT) toda información o documento susceptibles de ser protegidos y no compartidos fuera de la empresa”, por ejemplo, en los ámbitos de protección de secreto empresarial, protección de datos o propiedad intelectual/derechos de autor. En este sentido, advierte Muñoz, “la mayoría de estas herramientas exponen claramente en sus términos y condiciones que podrán utilizar dicha información para finalidades propias e incluso para poder alimentar al sistema, lo que hace posible que dicha información sea compartida como respuesta a una consulta”.

Y, por otro lado, las empresas que utilicen ChatGPT u otras herramientas tendrán que asumir la responsabilidad que se pueda derivar por el contenido o resultado que la IA les entregue, en caso de que este infrinja derechos de terceros.

Señala a este respecto Pablo García Mexía, Director de Derecho digital de Herbert Smith Freehills, que entre estos supuestos de responsabilidad destacan la privacidad y la propiedad intelectual. “Los primeros por la propia voracidad de datos de los algoritmos de aprendizaje profundo, difícilmente compatible con principios como la minimización del dato”. Los segundos “porque el llamado webscraping, o minería de textos y datos, efectuado por estos sistemas, puede arrastrar sin autorización contenidos protegidos por derechos de autor”. En cuanto a los primeros, García Mexía señala que “la normativa sobre protección de datos parece suficiente, al menos inicialmente, para afrontar los problemas que plantean estos sistemas, pues sus principios básicos se han elaborado ya con sistemas de IA en mente”. Y otro tanto ocurre con los derechos de autor, por cuanto “la minería de textos y datos está ya regulada en la normativa europea y española sobre la materia”; aunque solo se prevé en tales casos compensación económica cuando el titular de los derechos ha optado por no autorizar ese webscraping, cosa que la masificación de estas herramientas puede llegar a dificultar.

¿Se necesitan nuevas normas?

En un reciente congreso sobre IA y Derecho celebrado en la Universidad de Deusto, la profesora de Derecho Civil de la Universidad de Valencia, María Luisa Atienza Navarro, explicó que, en la actualidad, existen dos tendencias al respecto. Una considera que las características de la IA no implican la necesidad de nuevas normas, bastando las actuales que rigen la responsabilidad por hecho ajeno. Otra, más predominante, considera que es necesario un nuevo sistema armonizado de normas que evite que, al menos en la Unión Europea, cada país regule esta cuestión de una manera diferente, poniendo en riesgo la seguridad jurídica.

En este sentido, en octubre de 2020 el Parlamento Europeo presentó una primera propuesta de reglamento, que establecía una responsabilidad objetiva por los daños causados por la IA (es decir, que el usuario del sistema respondiese en todo caso de cualquier daño causado por el mismo). Pero esta iniciativa quedó aparcada, siendo sustituida, en septiembre de 2022, por una propuesta de directiva sobre adaptación de las normas de responsabilidad civil extracontractual a la IA. Esta es considerada una propuesta de mínimos, ya que se limita a introducir mecanismos para facilitar la prueba del daño sufrido por el demandante, imponiendo unas obligaciones para el diseñador o usuario del sistema de IA.

Por su parte, la profesora de Derecho Mercantil de la Universidad Carlos III de Madrid, Teresa Rodríguez de las Heras, señaló en el mismo foro que, también en septiembre de 2022, la Comisión presentó una propuesta de directiva de modificación de la actual normativa europea sobre productos defectuosos para incluir los daños causados por la IA.

Estas expertas coinciden en que estas propuestas, junto con el futuro Reglamento de IA, van a definir un nuevo escenario para regular la responsabilidad por los daños causados por los sistemas inteligentes.

Obligación de informar

La propuesta inicial de Reglamento de IA no hacía apenas referencia a los sistemas de IA generativa, salvo una obligación de informar al usuario de que se está interactuando con un chatbot. Posteriormente, el Consejo introdujo una nueva categoría, los denominados sistemas de propósito general, en la que incluye a aquellas IA capaces de responder a preguntas, traducir o generar audio y vídeo. Pero el impacto causado por el ChatGTP ha llevado a los parlamentarios europeos a considerar la posibilidad de incluir estos sistemas entre los considerados de alto riesgo, lo que supondría la aplicación de numerosas obligaciones a sus diseñadores y usuarios.

 

Sigue toda la información de Economía y Negocios en Facebook y Twitter, o en nuestra newsletter semanal

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_