Innovación Legal
09 febrero 2026
Por Alex Dantart
Durante meses repetimos un mantra tranquilizador: «La IA no te sustituirá, te sustituirá alguien que la use». Hoy tengo que expresar algo incómodo: esa frase está ya obsoleta.
Y queda más claro aún tras analizar un estudio empírico con 2.700 casos reales que demuestra algo que muchos intuíamos pero nadie había medido: no basta con usar IA. Hay que saber qué tipo de IA usar, o el remedio será peor que la enfermedad.
El experimento que lo cambia todo
Se evaluaron 12 de los mejores modelos del mercado (GPT-5, Claude, Gemini…) redactando 75 tareas jurídicas reales: recursos, oposiciones a medidas cautelares, fundamentación jurisprudencial. Tres escenarios distintos:
Los resultados son demoledores, y puede quitar el sueño a más de uno. Cuando un abogado le pide a ChatGPT o Claude que redacte un recurso «de memoria», casi 3 de cada 10 citas que genera son falsas. Sentencias inexistentes, atribuciones incorrectas, doctrina inventada. El 26.8% de tasa de error en citas y un 15.6% en hechos fabricados.
¿Suena a exageración? Quizá no tanta para aquel letrado sancionado por el Tribunal Constitucional por presentar 19 citas inexistentes. O a los colegas de profesión italianos y argentinos recientemente amonestados por lo mismo.
Pero hay más: cada documento generado así requiere 35 minutos de media de revisión para corregirlo, con lo que no es un borrador útil, sino un pasivo informativo que hace perder más tiempo del que se gana.
Aquí está el giro: cuando esas mismas IAs trabajan sobre fuentes verificadas (lo que se consigue con la tecnología RAG), el error baja al 8.3%. Y con sistemas avanzados de verificación, prácticamente desaparece: 0.046%. Además, el tiempo de revisión se reduce de 35 minutos a… 1.2 minutos.
La diferencia no está en «usar más IA». Está en entender que hay dos tipos de IA jurídica radicalmente diferentes:
El oráculo creativo (IA generativa pura) que:
El archivero experto (IA consultiva) que:
Volvamos a la idea del inicio: «Te sustituirá alguien que use IA.”. Pues no. Porque a final de año probablemente todos la usaremos. Word incorporará IA de serie, las bases de datos jurídicas la integrarán, los juzgados la implementarán, las soluciones legaltech viven de ello. La verdadera división no será entre quien usa IA y quien no. Será entre:
Tres preguntas que nos debemos hacer hoy
Este estudio demuestra algo revelador: la competencia digital ya no es suficiente. Necesitamos competencia arquitectónica: saber distinguir cuándo necesitamos creatividad y cuándo necesitamos rigor absoluto. No se trata de tener miedo a la IA. Se trata de tener miedo a usarla mal.
Porque cuando el Tribunal Constitucional sanciona, no pregunta qué modelo usaste. Pregunta por qué no se verificó. Y «lo generó la IA» no es una defensa sino más bien un agravante.
La profesión no se jugará en quién usa IA, sino en quién entiende qué tipo de IA necesita en cada momento.
Y en quién conserva algo que ninguna máquina puede replicar: la capacidad de poner su nombre y su responsabilidad detrás de cada decisión.
Nota: El estudio completo «Fiabilidad por diseño» con los 2.700 casos analizados está disponible en arxiv.org. Incluye el dataset JURIDICO-FCR para replicación.
(Enlace: https://arxiv.org/abs/2601.15476)