19 febrero 2026
La inteligencia artificial en los procedimientos judiciales
Por Carlos Prat Westerlindh, letrado del Consejo General del Poder Judicial en el Servicio de Inspección y magistrado de la Audiencia Provincial de Madrid.
Las máquinas pueden parecer humanas, pero no lo son. Pueden procesar más información de la que jamás almacenará nuestro cerebro; pueden aprender de decisiones previas, detectar patrones y proponer soluciones. Pero no son libres. Y la libertad —incluso la libertad de no decidir, de errar, de actuar contra la pura lógica— sigue siendo patrimonio exclusivo del ser humano.
La evolución actual de la inteligencia artificial ya no se limita a la recopilación masiva de datos. Hoy hablamos de sistemas capaces de tratar esa información y formular propuestas decisorias, entrenados con decisiones humanas previas e incluso con sus propios resultados. Es lo que algunos denominan “IA fuerte”.
En el ámbito judicial, esta evolución resulta especialmente sensible. La Administración de Justicia en España arrastra problemas estructurales de colapso y retraso que han impulsado reformas legislativas de urgencia. Sin embargo, la verdadera transformación no vendrá tanto de ajustes procesales como del nuevo marco europeo: el Reglamento (UE) 2024/1689.
Este Reglamento —conocido como RIA— califica como sistemas de “Alto Riesgo” aquellos que asisten a autoridades judiciales en la interpretación de hechos y leyes. La consecuencia no es menor: supervisión humana obligatoria, exigencias estrictas de transparencia y trazabilidad, y un régimen reforzado de control. Europa ha entendido que allí donde está en juego la libertad o el patrimonio de las personas, la automatización no puede operar sin límites.
No es casual que el Tribunal de Justicia de la Unión Europea haya influido decisivamente en este enfoque garantista. La jurisprudencia previa del Tribunal de Justicia de la Unión Europea ya había advertido sobre los riesgos de decisiones automatizadas sin intervención humana efectiva, especialmente en materia de protección de datos y derechos fundamentales.
Justicia predictiva y “jueces robot”
Entre las herramientas analizadas destacaron los sistemas de justicia predictiva y de análisis de decisiones. Estos instrumentos permiten evaluar riesgos de reincidencia, probabilidades de éxito procesal o tendencias jurisprudenciales. En abstracto, pueden contribuir a una mayor coherencia y previsibilidad. En la práctica, plantean interrogantes inquietantes.
Si un algoritmo sugiere la adopción de prisión provisional por el “riesgo estadístico” de reincidencia, ¿hasta qué punto el juez conserva su independencia real? ¿Estamos ante una ayuda técnica o ante un condicionamiento invisible?
Más problemáticos aún son los sistemas ODR (Online Dispute Resolution) concebidos como auténticos “jueces robot”, capaces de estimar o desestimar demandas de forma automatizada. Según el estándar europeo, se trata inequívocamente de sistemas de Alto Riesgo. No pueden ser aplicados por órganos judiciales sin una norma interna que delimite su ámbito y garantías.
La cuestión de fondo es constitucional: ¿puede institucionalizarse la resolución de conflictos prescindiendo de las personas? ¿Es equivalente la valoración algorítmica de circunstancias a la ponderación humana? En el ámbito administrativo quizá exista mayor margen; en la Administración de Justicia, donde la decisión encarna el poder soberano del Estado, la respuesta exige cautela extrema.
Uno de los ámbitos que más demoras generan son los juicios monitorios. En procedimientos esencialmente documentales y estandarizados, la IA podría intervenir bajo condiciones estrictas: delimitación objetiva del tipo de asuntos, trazabilidad completa, supervisión judicial efectiva y posibilidad de revisión humana plena.
La clave no es sustituir al juez, sino liberar recursos en tareas repetitivas para reforzar la función jurisdiccional allí donde la ponderación humana es insustituible.
La abogacía ante su propia transformación
Quizá la parte más incisiva de la intervención fue la dedicada a la abogacía. Durante siglos, el abogado ha ostentado el monopolio práctico de la interpretación jurídica. Era el intermediario imprescindible entre el ciudadano y el lenguaje técnico del Derecho.
La IA generativa altera ese equilibrio. Hoy cualquier persona puede formular una pregunta en lenguaje común y obtener una respuesta jurídicamente articulada. Se abre la puerta a una cierta “uberización” de los servicios jurídicos, donde formularios inteligentes y sistemas automatizados permiten resolver cuestiones estandarizadas sin asesoramiento tradicional.
Pero el desafío no es solo económico. Es estructural. La entrada de capital tecnológico y de empresas que ofrecen servicios jurídicos basados en IA tensiona principios como la prohibición del fee-splitting y la independencia profesional. Si el abogado depende tecnológicamente —o financieramente— de una plataforma que intermedia el servicio, ¿sigue siendo plenamente autónomo?
A ello se suman nuevos deberes deontológicos. La utilización de IA exigirá informar al cliente, explicar sus límites y garantizar la calidad del resultado. Y, sobre todo, preservar el secreto profesional. Introducir datos sensibles en sistemas abiertos o sin garantías suficientes puede implicar revelación de secretos y responsabilidad disciplinaria. La confidencialidad no es un formalismo: es el cimiento de la confianza.
Con la obligatoriedad de la mediación previa introducida por la Ley Orgánica 1/2025, la IA puede desempeñar un papel constructivo. Simular escenarios, proponer soluciones extraprocesales o identificar puntos de acuerdo potenciales son funciones donde la tecnología puede facilitar acuerdos sin sustituir la voluntad de las partes.
Aquí la máquina no decide: asiste.
Libertad, sesgos y control
Mientras no se superen las objeciones relativas a la justificación de las decisiones automatizadas y la limitación de sesgos, la inteligencia artificial no puede ser reemplazo, sino herramienta.
El Derecho no es solo cálculo. Es interpretación, contexto, prudencia y, en ocasiones, compasión. Las máquinas optimizan; los humanos deliberan. Y en esa deliberación cabe incluso lo imperfecto.
En última instancia, lo que está en juego no es la eficiencia del sistema judicial, sino nuestra concepción de la libertad. Podemos delegar tareas, análisis y propuestas. Lo que no podemos delegar es la responsabilidad última de decidir.
Porque, por ahora, solo el ser humano es capaz de algo tan irracional —y tan profundamente jurídico— como elegir incluso contra la lógica.




