_
_
_
_
_

¿Deben los Estados regular la inteligencia artificial?

El autor sostiene que las compañías, principales beneficiarias de la IA, no deberían ser también quienes determinen sus reglas de comportamiento

Getty Images

Deberíamos dejar que las industrias más contaminantes fijen los límites de las emisiones atmosféricas? ¿Aprobaríamos que los fabricantes de armamento dictaran las reglas de la guerra? Por el momento estamos dejando que las compañías tecnológicas se ocupen en exclusiva del desarrollo ético y jurídico de la inteligencia artificial (IA).

En un intento de ayudar a dar forma al futuro de la IA, en 2016, seis grandes empresas tecnológicas -Amazon, Apple, Google, Facebook, IBM y Microsoft- formaron la Asociación para la IA -la Partnership on Artificial Inteligence- en beneficio de las personas y la sociedad con el fin de "estudiar y formular las mejores prácticas sobre las tecnologías de la IA". Del mismo modo, en octubre de 2017, DeepMind, una de las compañías líderes mundial de IA adquirida por Google en 2014, presentó un nuevo comité de ética "para ayudar a los tecnólogos a poner en práctica la ética y para ayudar a la sociedad a anticipar y dirigir el impacto de la IA de manera que trabaje para el beneficio de todos".

No está del todo claro quién debe ser considerado responsable si la IA causa daños: el diseñador original, el fabricante, el propietario, el usuario o la propia IA”

Estas iniciativas son muy positivas pero no suficientes. El sector privado, que es el que más se beneficiará financieramente de cualquier decisión que se tome, está tomando el liderazgo en cuanto a la regulación de la IA. Pero también es imprescindible que los Estados garanticen el cumplimiento del Derecho y los principios y derechos fundamentales consagrados en las constituciones nacionales y en la Carta de los Derechos Fundamentales de la Unión Europea.

Pero, ¿por qué necesitamos una regulación jurídica imperativa? En otros trabajos me he ocupado detenidamente de las nuevas cuestiones que las leyes actuales no cubren. Por ejemplo, no está del todo claro quién debe ser considerado responsable si la IA causa daños (por ejemplo, en un accidente con un coche autónomo o por una incorrecta aplicación de un algoritmo): el diseñador original, el fabricante, el propietario, el usuario o incluso la propia IA. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusión. La falta de regulación también aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira pública.

Más información
Cuatro reflexiones sobre los ‘componentes éticos’ de la Inteligencia Artificial
La respuesta del Derecho ante los robots y la inteligencia artificial

Estos temas no son solo preocupaciones doctrinales que nos entretienen a los académicos. Los sistemas de IA ya tienen la capacidad de tomar decisiones difíciles que hasta ahora se han basado en la intuición humana o en leyes y prácticas de los tribunales. Tales decisiones van desde cuestiones de vida o muerte, como la utilización de los robots asesinos autónomos en los ejércitos, hasta asuntos de importancia económica y social, como la forma de evitar los sesgos algorítmicos cuando la inteligencia artificial decide por ejemplo si se debe otorgar una beca a un estudiante o cuándo se le concede la libertad condicional a un preso. Si un ser humano tomara estas decisiones, estaría siempre sujeto a una norma legal o ética. No existen tales reglas en el presente de la IA.

La regulación de la IA está actualmente presidida por intereses corporativos. Y ello no siempre es conveniente. Basta con mirar a la crisis financiera mundial de 2008 para ver qué ocurre cuando la autorregulación de la industria se sale de control. Aunque los Estados han intervenido para exigir a los bancos que mantengan mejores activos para respaldar sus préstamos, la economía mundial sigue sufriendo las repercusiones de un régimen que antes era fundamentalmente autorregulado.

La autorregulación no basta. Si las normas son solo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician” 

Eso no quiere decir que no se esté progresando. DeepMind ha contratado a destacados analistas públicos, como el filósofo transhumanista Nick Bostrom y el economista Jeffrey Sachs, como miembros de su comité de ética, y la lista de miembros de la señalada Asociación para la IA incluye ahora a organizaciones sin fines de lucro como la Unión Americana de Libertades Civiles, Human Rights Watch y UNICEF. Sin embargo, a fecha de escribir estas líneas tan solo cuenta con representantes de nueve países de todo el mundo.

Por el momento, los Estados siguen intentando alcanzar a Silicon Valley en lo que respecta a la regulación de la IA; cuanto más tiempo esperen, más difícil será encauzar adecuadamente el futuro de la IA. En el Reino Unido existe un Comité de la Cámara de los Lores sobre IA, y la Comisión Europea ha puesto en marcha hace unos meses un grupo de expertos para debatir sobre los desafíos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales de la Unión Europea.

Es una tarea difícil, pero no imposible. A escala nacional, los Estados ya supervisan muchas otras tecnologías complejas, incluyendo la energía nuclear o la clonación. A escala internacional, la Agencia Europea de Medicamentos (EMA) establece normas farmacéuticas para 28 países y la ICANN regula partes clave de todo internet.

Cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, pero no legisladores”

Es importante disponer de un cuerpo jurídico imperativo, si bien prudente y meditado. La autorregulación no basta. Si las normas son solo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician, dando a algunas organizaciones ventajas sobre otras. Por ejemplo, ninguna de las principales empresas chinas de IA, como Tencent o Baidu, ha anunciado que formarán comités de ética o que tengan intención de unirse a la indicada Asociación.

Además, sin un marco unificado, un exceso de comités de ética privados también podría conducir a la existencia de demasiados conjuntos de normas. Sería caótico y peligroso que cada gran empresa tuviera su propio código para la IA, al igual que si cada ciudadano privado pudiera establecer sus propios estatutos legales. Solo los Estados tienen el poder y el mandato de asegurar un sistema justo que imponga este tipo de adhesión en todos los ámbitos. Por eso los Estados son soberanos, tienen Parlamentos y un Poder Judicial.

Por lo tanto, cuando se redactan normas para los sistemas de IA, las voces de las empresas deben seguir siendo contribuyentes, sin duda muy relevantes, pero no legisladores. Las compañías tecnológicas pueden estar bien posicionadas para diseñar reglas debido a su experiencia en la materia, pero los actores de la industria rara vez están en la mejor posición para evaluar adecuadamente los riesgos democráticos, morales y éticos.

La historia muestra lo que puede suceder si los Estados se retiran y dejan que las empresas privadas establezcan sus propias normas reguladoras. Permitir que esto ocurra en el caso de la IA no solo es imprudente, sino también muy peligroso.

Moisés Barrio Andrés es letrado del Consejo de Estado, profesor de Derecho de Internet y experto en Ciberderecho.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_