_
_
_
_
_

La inteligencia artificial se abre paso en la justicia española

Los juristas y el Gobierno aceleran la aplicación de los algoritmos para agilizar procesos a la espera de la regulación europea

Patronos de la Fundación Fial, desde la izquierda: María Emilia Adán, decana del Colegio de Registradores; el abogado Jorge Moreno; Víctor Moreno Catena, catedrático de Derecho Procesal; Antonio del Moral, magistrado del Supremo; y Victoria Ortega, presidenta del Consejo General de la Abogacía, en Madrid.
Patronos de la Fundación Fial, desde la izquierda: María Emilia Adán, decana del Colegio de Registradores; el abogado Jorge Moreno; Víctor Moreno Catena, catedrático de Derecho Procesal; Antonio del Moral, magistrado del Supremo; y Victoria Ortega, presidenta del Consejo General de la Abogacía, en Madrid.Samuel Sanchez

Cuando una pareja se separa, un juez de familia dicta una pensión compensatoria alimenticia basándose en parámetros como los ingresos del padre o la madre, o el nivel de vida en su ciudad. Pero más pronto que tarde será un algoritmo el que afine de manera más precisa la cantidad para los hijos, tras basarse en decenas de factores y habiendo aprendido de sentencias correctoras de Audiencias sobre pensiones mal dictadas por jueces de familia.

Es solo un ejemplo de las herramientas basadas en la inteligencia artificial (IA) que prevé aplicar en breve la justicia. El salto revolucionará una administración de tiempos lentos y procelosos, pero quedan por ajustar aspectos éticos y normativos. “Cuando un juez pueda determinar la pensión en un milisegundo no se va a quebrar la cabeza, no lo va a dudar. Y las personas afectadas podrán calcularlo de antemano, habrá más certeza y menos litigios”, augura Miguel Salas, director general de la Fundación Fial, nacida hace dos meses a modo de laboratorio de ideas para impulsar la inteligencia artificial en el ámbito legal español. “La tecnología es un cuchillo que hay que regular, pero sin tenerle miedo”, resume este abogado.

Ya hay herramientas predictivas en ámbitos cercanos a la justicia, como la seguridad y la política penitenciaria: la policía utiliza Viogen para casos de violencia machista y la Generalitat emplea Riscanvi para los permisos de los presos en Cataluña basándose en la regresión múltiple, una técnica estadística considerada como un paso previo a la IA. Pero el retraso de la justicia en inteligencia artificial respecto a otras áreas como la medicina o las finanzas se debe, según los expertos, a lo delicado de poner en manos de algoritmos una materia tan sensible y con tantas garantías legales.

Sin embargo, los expertos creen que el aterrizaje está más cerca de lo que parece. El Parlamento Europeo debate estos meses la norma que luego regirá en todo el continente para dar un sello de garantía a los programas, auditarlos por un tercero autorizado y clasificarlos por niveles de riesgo alto, medio y bajo.

La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, explica algunos de los retos pendientes para implementar la inteligencia artificial en España.

“Se veía como futuro pero es presente. La Administración debe ser tremendamente transparente, pero es irrealista pensar que todas las empresas publicarán sus algoritmos, necesitamos supervisores que garanticen que el algoritmo está bien entrenado y si está sesgado, que el ciudadano pueda pedir una segunda revisión”, avanza Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial. El Gobierno está a la espera de que Estrasburgo y luego la Comisión Europea muevan ficha con un reglamento sobre IA, pero ya hay dinero sobre la mesa y el Ministerio de Justicia recibirá parte de los 2.600 millones del Plan de Digitalización de la Administración Pública anunciado hace un mes.

Mientras aterrizan y se materializan esos planes, los grandes operadores del mundo legal están pensando cómo ordenar la revolución que viene. Los riesgos son numerosos y la Unión Europea busca fijar pautas estrictas para marcar distancia respecto a China y Estados Unidos, los dos polos con más desarrollo en IA donde los datos están en manos del Gobierno y las grandes tecnológicas.

Miembros de la Fundación Fial, en Sevilla. De izquierda a derecha, el ingeniero Ricardo Arjona; el economista Carlos Donaire; el catedrático Juan Antonio Carrillo; los abogados María José Moyano y Miguel Salas; el catedrático Vicente Guzmán; y los abogados Amelia Corbacho, Juan Carlos Alférez y Simón Fernández Rebollo.
Miembros de la Fundación Fial, en Sevilla. De izquierda a derecha, el ingeniero Ricardo Arjona; el economista Carlos Donaire; el catedrático Juan Antonio Carrillo; los abogados María José Moyano y Miguel Salas; el catedrático Vicente Guzmán; y los abogados Amelia Corbacho, Juan Carlos Alférez y Simón Fernández Rebollo.PACO PUENTES (EL PAÍS)

La UE preguntó recientemente a los Estados miembros si eran partidarios de un modelo de certificación avanzada en colaboración con un organismo externo o preferían huir de regulaciones rígidas para no lastrar el desarrollo. España ha contestado abogando por la posición intermedia: combinar la certificación avanzada con cierta autonomía de los Estados para ir implantando herramientas. “Apostamos por una certificación que no sea bloqueante en estos momentos. Que cada país pueda ir avanzando con una especie de declaración responsable mientras se regula a nivel europeo”, explica Aitor Cubo, director general de Transformación Digital de la Administración de Justicia.

En esta misma línea se mueve Fial, en cuyo patronato se integran catedráticos de derecho y filosofía, un magistrado del Tribunal Supremo y las presidentas del Consejo General de la Abogacía y del Colegio de Registradores, además de expertos y empresarios de la IA. “La inteligencia artificial no se puede implantar en la justicia con una autorregulación total porque hay implicados derechos fundamentales”, advierte el presidente de la fundación, el catedrático de Derecho Procesal Víctor Moreno Catena, para quien la UE hace bien en intentar acordar unas reglas de juego. “Pero optar por certificaciones rígidas tampoco parece la solución adecuada. Hay que evitar frenar el desarrollo”, avisa.

Mientras llega esta regulación, el Ministerio de Justicia tiene ya en marcha proyectos que emplean inteligencia artificial, como programas que permiten el reconocimiento de nombres de calles o de personas (y facilitarían, por ejemplo, encontrar estos datos en un expediente de miles de páginas), textualizan las declaraciones grabadas en una vista oral o prevén situaciones de riesgo social de una familia amenazada de desahucio.

Pero el debate europeo se centra en el uso en la justicia de procesos automatizados basados en reglas. El asunto se ha puesto ya sobre la mesa en reuniones de la Conferencia Sectorial de Justicia, el órgano de cooperación entre el Gobierno y las Comunidades, donde se trabaja para que haya un cierto orden a la espera del marco regulatorio que fije Europa. Será cada comunidad (y el Ejecutivo central en el caso de aquellas sin las competencias en justicia transferidas) la que decida qué usos aplica, aunque con un límite en el que todas las administraciones, según el director general, están de acuerdo: cualquier decisión la seguirá tomando el juez. “Nos estamos orientando a la resolución de conflictos y la eficacia de la Administración de Justicia. No es la máquina la que va a decidir ni trabajamos con datos personales. No hace falta recopilar los datos personales para ser eficaz”, advierte Cubo.

Los expertos apuntan a algunos tipos de procedimientos que podrían ser los primeros en agilizarse con IA, como las cláusulas suelo, las reclamaciones por vuelos cancelados o las ya citadas pensiones alimenticias en casos de divorcios. Cualquier materia en la que entren en juego multitud de datos podría ser candidata a resolverse con algoritmos, pero algunas plantean más dudas éticas.

Federico de Montalvo, presidente del comité de Bioética de España, explica uno de los riesgos de utilizar inteligencia artificial en procesos judiciales.

“España tiene un riesgo mayor que el resto de Estados: somos muy tecnoptimistas según las encuestas, nos creemos las virtudes de la tecnología y hay que ponerle límites. Sabemos mucho de tecnología y poco de ética. La inteligencia artificial se basa mucho en la igualdad pero no atiende a la equidad, a tratar desigualmente a los desiguales”, reflexiona Federico de Montalvo, presidente del Comité de Bioética de España.

El caso que reveló de manera más clara los riesgos fue el programa Compas, utilizado en EE UU para calcular, según los antecedentes penales de un acusado, sus posibilidades de reincidir. Una investigación reveló en 2018 graves carencias y sesgos por parte del algoritmo respecto a las predicciones humanas. Por eso, según Moreno Catena, hace falta un tercero que pueda certificar la ausencia de sesgos. La fundación que preside pretende convertirse en “actor” de la implantación de la IA con una perspectiva ética interviniendo en el proceso de certificación. “La inteligencia artificial es una ola y si no la afrontamos preparados, nos veremos arrollados por ella sin control”, añade el jurista, que advierte de que la ausencia actual de regulación podría llevar a que jueces “más tecnológicos” usen estos programas para agilizar su trabajo o que las grandes firmas de abogados puedan acceder a ellas mientras los juzgados y los pequeños despachos se quedan al margen.

“Cualquier empresa que quiera distribuir algoritmos necesitará esa certificación porque si no tendrá cerrado el mercado europeo”, sintetiza Juan Antonio Carrillo, director general de Fial y profesor de Derecho Administrativo de la Universidad de Sevilla. “A partir de parámetros estandarizados y de las directrices que fije la Unión Europea, las certificadoras verificarán cómo es el algoritmo, cómo cambia, cómo se autoperfecciona y aprende”,

El Consejo General de la Abogacía Española se ha implicado también en Fial para aportar su punto de vista a un proceso que se ve como “una oportunidad”. “No estamos automatizando la justicia, sino haciéndola más eficiente, con ahorro de trabajo y tiempo. Y a la vez, hacerla más accesible y con ello más transparente”, señala su presidenta, Victoria Ortega. Ya hay consenso en que la IA puede aplicarse garantizando el derecho a una tutela judicial efectiva, asegura Ortega, y ahora se está en una segunda fase: determinar en qué ámbitos es posible aplicar el tratamiento masivo de datos respetando ese derecho.

España no está siguiendo exactamente ningún modelo de los ya implantados en otros países. “Se trata de configurar nuestro propio modelo a partir del conocimiento del resto”, afirma la presidenta del Consejo de la Abogacía. Entre los referentes más interesantes varios de los expertos consultados citan el caso de Estonia, que prevé resolver próximamente los conflictos judiciales de reclamaciones menores a 7.000 euros mediante algoritmos. “Las resistencias a la inteligencia artificial son normales pero erróneas. En menos de cinco años los jueces automatizarán parte de su trabajo a niveles ahora impensables. No será uniforme, pero sí palpable. Y las ventajas se notarán a todos los ámbitos, porque el primer enemigo de la economía es el anquilosamiento de los conflictos”, vaticina el abogado Miguel Salas.

Alejandro Huergo, catedrático de Derecho Administrativo en la Universidad de Oviedo y autor de La regulación de los algoritmos, aboga por una “transparencia total” para que “toda decisión sea recurrible”: “El algoritmo no puede quitarle garantías a los procesos, pero no le exijamos lo que no pedimos al humano”.

Nuria Oliver, cofundadora de ELLIS (Laboratorio Europeo para el Aprendizaje y los Sistemas Inteligentes, por sus siglas en inglés) y doctora en inteligencia artificial, recuerda los estudios que analizaron cómo los jueces eran más y menos benévolos en sus decisiones antes o después de comer. “Hay que analizar computacionalmente casos para ver patrones preexistentes en decisiones humanas y entender las áreas de mejora. Un algoritmo no tiene hambre”.

Los algoritmos que ya están operativos

Más allá de los juzgados, la inteligencia artificial ya espolea el mundo legal. La jurimetría, gracias al procesamiento del lenguaje natural que utiliza la IA, recorta los tiempos empleados por los abogados para buscar jurisprudencia y elegir la mejor estrategia para ganar un caso. Pero la tecnología no solo beneficia a los letrados, los ciudadanos también le sacan partido: cualquier persona o empresa puede ver qué abogado ha ganado más asuntos en su ciudad sobre un área especializada, y contratarle gracias a su pericia.

Se acabaron la fama, el eco mediático y el boca a boca, los números de éxitos en sala son la nueva clave. Un ejemplo es la firma Emerita Legal, que sobre una base de 124.000 abogados que litigan, del total de 142.000 que hay en España, ofrece un listado ordenado con los mejores: 25.000 letrados que ganan más casos respecto a sus compañeros. “Se trata de pasar del ruido que haces a que sea tu trayectoria profesional la que te marque”, subraya Antonio Padín, consejero delegado de esta empresa de análisis de datos judiciales, con base en Santiago de Compostela.

La barrera que impide que estas compañías multipliquen su negocio es la publicación de las sentencias, asignatura pendiente para el Gobierno pese a las peticiones de la Comisión Europea para garantizar la transparencia judicial. De momento, el Consejo General del Poder Judicial (CGPJ) solo publica entre un 12% y un 15% de sus 1,6 millones de sentencias anuales a través de un acuerdo con una empresa, en vez de generar su propio sistema operativo.


Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_