Innovación Legal
13 octubre 2025
Por Alex Dantart
La irrupción de la Inteligencia Artificial generativa ha supuesto una transformación sin precedentes en el sector jurídico. Los grandes modelos de lenguaje (LLMs) como Chat GPT prometen una eficiencia revolucionaria en tareas como la investigación, la redacción de documentos y el análisis contractual. Sin embargo, este enorme potencial se ve amenazado por un desafío sistémico que atenta contra el pilar fundamental de la profesión legal: la veracidad.
Hablamos de las conocidas «alucinaciones», resultados textuales que, aunque plausibles, son fácticamente incorrectos o inconsistentes con las fuentes autorizadas.
Precisamente por eso, como experto en tecnología e IA, he desarrollado un exhaustivo informe técnico; «Inteligencia Artificial Jurídica y el desafío de la veracidad». Un documento científico que, tras meses de trabajo, análisis, investigación y estrecha colaboración con profesionales del mundo legal, profundiza en este fenómeno, no como un fallo ocasional, sino como una característica inherente al diseño de estas tecnologías.
Comprender esto es el primer paso para una integración segura y eficaz.
El error más común es tratar toda la «IA Legal» como un ente monolítico. El informe propone una distinción fundamental que lo cambia todo:
La mitigación efectiva de las alucinaciones, por tanto, no reside en mejorar al “oráculo”, sino en adoptar deliberadamente el paradigma del archivero.
La principal estrategia técnica para construir una IA consultiva es lo que se conoce como Generación Aumentada por Recuperación (RAG), una tecnología que conecta un LLM a una base de datos externa, obligándole a basar sus respuestas en la información recuperada.
Sin duda, RAG es el camino correcto: reduce drásticamente la invención en numerosos casos. Sin embargo, la evidencia empírica es contundente: RAG no elimina las alucinaciones por completo. Persisten errores más sutiles pero igualmente peligrosos, como el misgrounding (citar una fuente real pero tergiversando su contenido).
Una implementación de RAG no es una solución «plug-and-play» (configuración automática); requiere una optimización holística y rigurosa en cada fase: desde la curación estratégica de los datos hasta la sofisticación de los algoritmos de recuperación y la ingeniería de prompts. La fiabilidad se construye, no se instala.
El informe demuestra que el mayor riesgo en el ámbito jurídico no es la alucinación del modelo, sino la «alucinación del usuario»: la creencia errónea de que una herramienta puede sustituir la responsabilidad y el juicio profesional. La tecnología no exime a los profesionales legales de su obligación de excelencia; se la exige con más fuerza que nunca.
Lejos de volver obsoleto al abogado, el desafío de la veracidad redefine y fortalece su rol. El profesional del derecho evoluciona para convertirse en:
Marcos regulatorios como la Ley de IA de la UE y políticas nacionales, como la recientemente publicada por el CTEAJE en España, ya consagran este principio: la supervisión humana no es una opción, sino un mandato.
En definitiva, el futuro de la IA jurídica no es la automatización, sino la amplificación cognitiva. Se trata de que los profesionales legales usen la tecnología como una herramienta para potenciar su juicio, aumentar sus capacidades y maximizar su valor, liberándose para centrarse en la estrategia, la ética y la empatía.
Este es el camino para humanizar la tecnología y ponerla al servicio de una justicia más eficiente, accesible y, sobre todo, fiable.
________________________________________
Para explorar en detalle la taxonomía de errores, la optimización de RAG y las implicaciones éticas y regulatorias, os invito a leer y a descargaros el informe completo.