
Secciones
Servicios
Destacamos
Edición
Viernes, 27 de Junio 2025, 10:56h
Tiempo de lectura: 9 min
En 2016, cuando ChatGPT era apenas una idea incubándose en una start-up, el Gobierno chino ya creó un programa nacional llamado Justicia Inteligente. Líder mundial en varios tipos de inteligencia artificial, incluido el de control y vigilancia ciudadana, el gigante asiático, una dictadura, sin división de poderes, donde las reformas se aprueban y se ponen en marcha sin grandes resistencias, lleva trabajando desde entonces en implementar la IA en el sistema judicial. Nueve años después, los avances chinos en este campo no tienen parangón.
La mejor demostración de ello es el Sistema 206, la inteligencia artificial de uso judicial más desarrollada del mundo, que recomienda sentencias a los jueces de Shanghái. No es un juez robot, pero se le parece mucho. Desde hace siete años es de uso obligatorio para los casos penales en la mayor ciudad de China, periodo en el que ha ayudado a sus magistrados a resolver más de tres millones de procesos en la mitad de tiempo. Un ejemplo de lo más tentador para países como España, donde el colapso judicial supera ya los cuatro millones de asuntos pendientes... y creciendo.
Aunque sin llegar al extremo de China, cuyo sistema judicial, con una tasa de condenas cercana al 100 por ciento, está controlado por el Partido Comunista, las herramientas de IA llevan años permeando la práctica jurídica en numerosos países, incluido el nuestro. «Pueden ser de gran ayuda para los jueces al permitir mejoras exponenciales en tareas administrativas y acelerar la gestión de muchos procesos rutinarios», señala José María Páez Martínez-Virel, el magistrado que preside la Comisión de Modernización e Informática del Consejo General del Poder Judicial (CGPJ), el órgano de gobierno de la Justicia española.
El vocal del CGPJ se refiere, eso sí, a herramientas desarrolladas exprofeso para el ámbito judicial. El Sistema 206, sin ir más lejos, ha sido creado y entrenado específicamente para tareas como automatizar la transcripción y análisis de documentos legales, comparar jurisprudencia, recopilar y evaluar la solidez de las pruebas, predecir el riesgo de reincidencia, recomendar veredictos, asignar casos en función de la carga laboral y la especialización del juez, e incluso agilizar la comunicación entre policías, fiscales y jueces.
En mayor o menor medida, algunas de estas tareas también las realizan herramientas de IA jurídica utilizadas en países como Estonia, Reino Unido, España, Estados Unidos... En una vista oral en el estado de Arizona incluso se ha llegado a presentar un avatar generado por IA de una víctima asesinada, una forma de influenciar al tribunal cuestionada por la defensa del acusado. Al fin y al cabo, los algoritmos ya están presentes, y hasta toman decisiones por nosotros, en muchos campos: financiero, sanitario, seguridad, recursos humanos, consumo, apps de citas, servicios públicos... ¿Por qué no hacerlo en la Justicia?
Se critica que los sistemas de IA carecen de una comprensión profunda de los contextos sociales y humanos, lo que puede llevar a decisiones injustas o sesgadas, pero lo cierto es que muchos ciudadanos también perciben sesgos evidentes en la administración de justicia tradicional. Una encuesta del CIS publicada en mayo revela que el 78,5 por ciento de los españoles percibe un trato judicial más favorable hacia las personas ricas que hacia las pobres. El 60 por ciento, además, desconfía de los jueces y cree que la justicia se instrumentaliza con fines políticos. España sería, de hecho, uno de los países de la UE donde se percibe (el 56 por ciento) una mayor politización del sistema judicial.
Datos a los que añadir los de estudios recientes realizados en Estados Unidos que sugieren que muchos jueces muestran mayor indulgencia hacia los acusados de su propia raza, mientras que son sistemáticamente más duros con las demás. Y, en cuanto a los jueces-robot, una encuesta de The Harris Poll realizada en 2023 reveló que el 43 por ciento de los estadounidenses preferiría ser juzgado por una IA que por un humano, dando por sentado que proporcionaría sentencias más equitativas.
Son percepciones que suenan a advertencia –tanto para los políticos como para el sistema judicial–, pero lo cierto es que esta aspiración de imparcialidad, personificada en una justicia algorítmica impartida por jueces-robot, está muy lejos de ser una realidad. Lo impiden, para empezar, las leyes actuales –«en España, esta posibilidad requeriría una reforma de la Constitución y de la Carta de los Derechos Fundamentales en la UE», subraya Moisés Barrio, letrado del Consejo de Estado y experto en Derecho Digital– y, sobre todo, la propia naturaleza de la tecnología.
«El gran problema para aplicar la IA generativa al sector legal es la transparencia de los algoritmos –señala Cristina Retana, directora de contenidos e innovación de Aranzadi La Ley, empresa líder en soluciones legaltech en España–. No sabemos cómo ni con qué han sido entrenados, cómo deciden por sí mismos, cuáles son las reglas y procesos que definen su forma de trabajar... Y este es un factor decisivo para confiar en una tecnología aplicada a un ámbito tan sensible como el de las decisiones judiciales, que afectan a los derechos y libertades de las personas».
El propio Reglamento Europeo de IA, aprobado hace un año y único en el mundo, condiciona su aplicación en la Justicia, cuyo uso en este ámbito califica como de «alto riesgo», a la eliminación de esta opacidad (los expertos utilizan la expresión 'caja negra').
Para evitar errores y sesgos, el regulador establece requisitos de transparencia que obligan a explicar, de modo comprensible, cómo toman decisiones los algoritmos y a informar sobre los datos empleados para entrenarlos. Condiciones que excluyen de la ecuación a chatbots como ChatGPT, Copilot, Gemini o Claude, aplicaciones que presentan gran cantidad de sesgos, generan alucinaciones (dar información incorrecta, inventada o engañosa que parece confiable) y que ni siquiera están personalizadas ni actualizadas con la legislación vigente de cada país. «Los sistemas de IA dominantes hacen imposible garantizar que un algoritmo sea completamente justo, transparente y libre de sesgos», sentencia el letrado Moisés Barrio.
Dos casos en España ilustran los riesgos de usar estas aplicaciones sin las debidas precauciones. En Madrid, un abogado presentó una demanda con 19 citas de sentencias del Tribunal Constitucional... ¡inventadas! En Navarra, otro elaboró una querella a partir de un artículo del Código Penal... ¡de Colombia! Groseros errores similares se han producido en otros países, evidenciando el uso imprudente de estas herramientas. No olvidemos que, además, funcionan en la nube –los datos que se introducen (testigos, víctimas, imputados...) son procesados en los servidores de las empresas propietarias–, lo que implica riesgos de privacidad y violaciones de confidencialidad.
«La IA judicial debe generarse y operar en entornos seguros y controlados –subraya el juez José María Fernández Seijo, vocal del CGPJ y experto en la norma europea de IA–. Por eso, las herramientas que se quieran utilizar en la administración de Justicia en España deben estar supervisadas, autorizadas y convalidadas por el Consejo». De desarrollarlas se encarga el Centro de Documentación Judicial (Cendoj), órgano para la gestión del conocimiento dependiente del CGPJ que trabaja en programas con IA de apoyo a los jueces.
Fernández Seijo es titular de uno de los doce juzgados de lo Mercantil de Barcelona, escenario de la prueba piloto de una IA que propone resoluciones en procedimientos donde el papel del juez se limita a comprobar el cumplimiento de determinados requisitos. A partir de la jurisprudencia de esta instancia judicial se enseña a la máquina a identificarlos para que presente una decisión que el magistrado acepta, rechaza o modifica. De los resultados de este ensayo dependerá su extensión a otras instancias de nuestro sistema judicial.
«Hay que crear un manual de buenas y malas prácticas judiciales en materia de IA –señala Fernández Seijo, vocal del CGPJ–. Que una IA mediatice sentencias parece, para muchos, cosa del demonio, pero ¿acaso no pueden influir las emociones o que tire al aire los expedientes y el que caiga sobre la alfombra sea absolutorio o condenatorio? Se habla de la 'caja negra' de la IA, pero nadie sabe qué hay en la 'caja negra' del juez».
Enseñar de forma adecuada a las máquinas es la gran clave para avanzar. En España, Aranzadi La Ley entrena sus herramientas de IA judicial a partir de una base de datos que incluye sentencias desde principios del siglo XX, la incorporación anual de otras 350.000 y legislación actualizada de todos los ámbitos. Una de ellas, Jurimetría, ejemplifica bien las posibilidades que la IA abre a los profesionales del sector legal. «Te dice si sentencias en casos similares fueron a favor de una parte o de la contraria, el resultado del litigio, la argumentación que se dio, sobre qué temáticas… –explica la directora de innovación de la compañía legaltech–. Al abogado le proporciona una visión amplia y precisa para plantear el caso, saber qué probabilidades tiene de ganar, estimar la duración del litigio... Todo ello protegiendo la confidencialidad y la propiedad intelectual, aspecto clave que se debe tener en cuenta».
El control de los entornos de desarrollo, sin embargo, no es garantía absoluta para crear algoritmos libres de sesgos. El sistema COMPAS de Estados Unidos, la IA judicial más antigua –en uso desde 1998–, utilizado para evaluar el riesgo de reincidencia penal, ha sido señalado por sus sesgos raciales: sobreestima el peligro de las personas negras y subestima el de las blancas.
Y, por supuesto, tampoco está libre de pecado el Sistema 206 (por febrero, seis, día en que, en 2017, se ordenó su desarrollo al Tribunal Superior Popular de Shanghái). Su base es China Judgments Online, la mayor base de datos jurídica del planeta que, asegura Pekín, almacena todas las sentencias judiciales de la superpotencia. En la práctica, sin embargo, el régimen selecciona qué dictámenes se incluyen, elimina otros de forma retroactiva y publica resoluciones incompletas, sobre todo si afectan a funcionarios del Partido Comunista.
Los jueces que la utilizan, además, padecen la llamada 'presión algorítmica': tendencia a aceptar las recomendaciones de la IA, presentadas como objetivas, precisas y eficaces. Es decir, el magistrado asume la decisión de la máquina por miedo a equivocarse o llevar la contraria al sistema. El veredicto sigue correspondiendo al juez, pero por el camino han quedado comprometidas la autonomía, la deliberación jurídica plena y la integridad de todo el proceso judicial.
Y esto es solo el principio. Los potenciales escenarios van mucho más allá. Alerta de ello la película Justicia artificial, un thriller del gallego Simón Casal ambientado en una España que afronta la implantación en sus tribunales de una IA que, además de emitir sentencias, toma parámetros biométricos faciales de los acusados y testigos para discernir si mienten o dicen la verdad. Una posibilidad inquietante que nos advierte de que, más allá del consenso respecto a su eficacia, eficiencia y rapidez a la hora de impartir justicia, queda mucho camino todavía para gestionar sus límites.