¿Cómo afecta la inteligencia artificial a las decisiones judiciales?
La Inteligencia Artificial ha irrumpido en los tribunales. Lo que hace apenas unos años parecía ciencia ficción, hoy es una realidad regulada por normas como el Real Decreto-ley 6/2023, que incorporó actuaciones automatizadas y asistidas por IA en la Administración de Justicia. Pero ¿hasta dónde puede llegar esta tecnología sin vulnerar otras normas o, incluso, derechos fundamentales?
Por Juanjo Hdez. Bonache, Asociado Principal de ECIJA
La normativa española distingue entre actuaciones automatizadas -procesos simples como paginar expedientes o generar certificados- y actuaciones asistidas, donde algoritmos elaboran borradores de resoluciones que el juez debe validar. Para estas últimas, el legislador ha dejado claro que las resoluciones judiciales requerirán siempre la validación del texto definitivo por la autoridad competente.
En otras palabras, la inteligencia artificial puede ayudar, pero no decidir. Sin embargo, la práctica demuestra que este límite no siempre se respeta y cada vez son más los casos que han encendido las alarmas.
En el ámbito internacional, el Tribunal Superior del Reino Unido (King’s Bench Division – Divisional Court) resolvió recientemente sobre dos asuntos relacionados con el uso indebido de herramientas de inteligencia artificial generativa por parte de abogados. Este Tribunal fue tajante al manifestar que un abogado no tiene derecho a confiar en su cliente ni en una herramienta tecnológica para la exactitud de las citas. Aunque evitó el desacato, advirtió que futuras conductas similares recibirán sanciones severas.
Pero estas situaciones no solo afectan a abogados, sino también a jueces que se extralimitan en el uso de la IA. A modo de ejemplo, la Cámara en lo Penal de Esquel en Argentina anuló una sentencia porque la juez de Primera Instancia usó IA para redactarla. El fallo anulado contenía una frase reveladora: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Para el tribunal, esta delegación vulneró garantías constitucionales y el principio del juez natural.
España tampoco se libra. El TSJ de Navarra, en su auto 2/2024, de 4 de septiembre, archivó una pieza separada contra un abogado que citó por error un artículo del Código Penal colombiano en una querella, tras usar ChatGPT. Aunque no hubo sanción, la Sala advirtió sobre las consecuencias del uso descuidado de estas tecnologías, que plantean implicaciones éticas y legales que pueden integrar mala fe procesal.
Más grave fue el caso analizado por el Tribunal Constitucional, que sancionó a un letrado por incluir 19 citas jurisprudenciales inexistentes en un recurso de amparo. El Acuerdo del 19 de septiembre de 2024 fue revelador incluso en su propio título: “La Sala Primera del TC por unanimidad sanciona a un abogado por la falta del debido respeto al Tribunal, al incluir reiteradas citas de doctrina que se entrecomillaban como si fueran reales cuando en realidad no existían”.
La Inteligencia Artificial ha irrumpido en los tribunales. Lo que hace apenas unos años parecía ciencia ficción, hoy es una realidad regulada por normas
La comunidad jurídica coincide en que la IA no puede sustituir el juicio humano, pero, siendo conscientes de la necesidad de incorporar la tecnología a este sector, es inevitable la existencia del dilema entre la eficiencia y las debidas garantías que deben imperar en cualquier procedimiento judicial.
La IA promete agilizar procesos y reducir la carga de trabajo, pero plantea riesgos evidentes: sesgos algorítmicos, pérdida de trazabilidad y opacidad en la toma de decisiones. Como señala la Política de uso de IA en la Administración de Justicia (CTEAJE, 2024), su papel debe ser auxiliar, nunca sustitutivo.
La conclusión -al menos por el momento- se resume transparencia y control humano. La pregunta no es si la IA debe entrar en los tribunales -obviamente sí-, sino cómo. La respuesta pasa por tres principios: supervisión humana efectiva, transparencia en el uso y formación continua para jueces y abogados.
La IA puede agilizar procesos, reducir errores y aportar análisis complejos, pero nunca debe sustituir la función decisoria del juez. El ser humano debe conservar la última palabra, garantizando que las recomendaciones algorítmicas se entienden, se cuestionan y se validan antes de aplicarse.
No basta con incorporar tecnología: hay que hacerlo con luz y taquígrafos. Los ciudadanos tienen derecho a saber cuándo se emplea IA en un procedimiento judicial y bajo qué criterios. Esto implica publicar los modelos utilizados, sus limitaciones y los mecanismos para detectar sesgos. Sin transparencia, la confianza se erosiona.
La justicia no puede permitirse quedarse atrás. Jueces, abogados y personal judicial necesitan capacitación técnica y ética para comprender las herramientas que utilizan. La formación debe ser constante, porque la tecnología evoluciona más rápido que la normativa.
En definitiva, la IA no es un enemigo ni un sustituto, sino un aliado poderoso. Pero su integración debe hacerse con responsabilidad, control humano y transparencia, para que la justicia siga siendo, ante todo, humana.
Powered by WPeMatico
