09 febrero 2026

El mito roto: cuando usar IA no es suficiente

Alex DantartPor Alex Dantart

Durante meses repetimos un mantra tranquilizador: «La IA no te sustituirá, te sustituirá alguien que la use». Hoy tengo que expresar algo incómodo: esa frase está ya obsoleta.

Y queda más claro aún tras analizar un estudio empírico con 2.700 casos reales que demuestra algo que muchos intuíamos pero nadie había medido: no basta con usar IA. Hay que saber qué tipo de IA usar, o el remedio será peor que la enfermedad.

El experimento que lo cambia todo

Se evaluaron 12 de los mejores modelos del mercado (GPT-5, Claude, Gemini…) redactando 75 tareas jurídicas reales: recursos, oposiciones a medidas cautelares, fundamentación jurisprudencial. Tres escenarios distintos:

  1. IA pura: preguntando directamente a uno de esos modelos genéricos.
  2. IA con fuentes básicas: pasando antes por corpus privado.
  3. IA con verificación avanzada: con corpus privado y técnicas de verificación.

Los resultados son demoledores, y puede quitar el sueño a más de uno. Cuando un abogado le pide a ChatGPT o Claude que redacte un recurso «de memoria», casi 3 de cada 10 citas que genera son falsas. Sentencias inexistentes, atribuciones incorrectas, doctrina inventada. El 26.8% de tasa de error en citas y un 15.6% en hechos fabricados.

¿Suena a exageración? Quizá no tanta para aquel letrado sancionado por el Tribunal Constitucional por presentar 19 citas inexistentes. O a los colegas de profesión italianos y argentinos recientemente amonestados por lo mismo.

Pero hay más: cada documento generado así requiere 35 minutos de media de revisión para corregirlo, con lo que no es un borrador útil, sino un pasivo informativo que hace perder más tiempo del que se gana.

La solución no es dejar de usar IA

Aquí está el giro: cuando esas mismas IAs trabajan sobre fuentes verificadas (lo que se consigue con la tecnología RAG), el error baja al 8.3%. Y con sistemas avanzados de verificación, prácticamente desaparece: 0.046%. Además, el tiempo de revisión se reduce de 35 minutos a… 1.2 minutos.

La diferencia no está en «usar más IA». Está en entender que hay dos tipos de IA jurídica radicalmente diferentes:

El oráculo creativo (IA generativa pura) que:

  • Da respuestas fluidas y convincentes
  • Inventa cuando no sabe
  • Su objetivo es coherencia, no veracidad
  • Es como contratar a alguien brillante… pero mitómano

El archivero experto (IA consultiva) que:

  • Busca primero, sintetiza después
  • Cita fuentes verificables
  • Admite cuando no encuentra algo
  • Es como tener un colaborador meticuloso que anota todo

Por qué esto cambia el paradigma profesional

Volvamos a la idea del inicio: «Te sustituirá alguien que use IA.”. Pues no. Porque a final de año probablemente todos la usaremos. Word incorporará IA de serie, las bases de datos jurídicas la integrarán, los juzgados la implementarán, las soluciones legaltech viven de ello. La verdadera división no será entre quien usa IA y quien no. Será entre:

  • Los arquitectos de estrategia: profesionales que entienden qué tipo de IA necesitan para cada tarea, que saben auditarla, verificarla, dirigirla. Que usan tecnología consultiva para acelerar la investigación, pero mantienen el criterio humano en el centro.
  • Los operarios de tareas: profesionales que delegan el pensamiento en la máquina, que asumen que si suena bien, debe ser correcto. Que quedan atrapados en un bucle de «generar-revisar-corregir» que destruye la eficiencia que supuestamente buscaban.

Tres preguntas que nos debemos hacer hoy

  1. ¿La herramienta que uso me dice de dónde saca la información? Si no se puede verificar cada afirmación en 10 segundos, se está usando un oráculo y no un archivero.
  2. 2. ¿Paso más tiempo corrigiendo que lo que gano generando? Si es así, el paradigma que se está usando está roto.
  3. 3. ¿Mi trabajo se está convirtiendo en una lista de tareas o en una cadena de decisiones? Porque las tareas se abaratan, pero la decisión se encarece.

El único seguro profesional válido

Este estudio demuestra algo revelador: la competencia digital ya no es suficiente. Necesitamos competencia arquitectónica: saber distinguir cuándo necesitamos creatividad y cuándo necesitamos rigor absoluto. No se trata de tener miedo a la IA. Se trata de tener miedo a usarla mal.

Porque cuando el Tribunal Constitucional sanciona, no pregunta qué modelo usaste. Pregunta por qué no se verificó. Y «lo generó la IA» no es una defensa sino más bien un agravante.

La profesión no se jugará en quién usa IA, sino en quién entiende qué tipo de IA necesita en cada momento.

Y en quién conserva algo que ninguna máquina puede replicar: la capacidad de poner su nombre y su responsabilidad detrás de cada decisión.

Nota: El estudio completo «Fiabilidad por diseño» con los 2.700 casos analizados está disponible en arxiv.org. Incluye el dataset JURIDICO-FCR para replicación.

(Enlace: https://arxiv.org/abs/2601.15476)

Comparte: