01 julio 2025

Oráculos modernos en la abogacía

Por Jordi Estalella
TWITTER @jordiestalella

Desde tiempos remotos, los humanos han buscado respuestas a lo incierto recurriendo a entidades que prometían vislumbrar lo oculto. En el mundo grecorromano, el Oráculo de Delfos, consagrado a Apolo, emitía enigmáticas sentencias que los paganos interpretaban con reverencia. En Mesopotamia, los sacerdotes examinaban el hígado de animales sacrificados, y en el Antiguo Egipto, las deidades eran interrogadas mediante rituales complejos. Esta fascinación por el conocimiento absoluto ha perdurado, transformándose, con cada avance tecnológico, en nuevas formas de oráculo.

El uso de IA en el ámbito jurídico, especialmente desde la popularización de modelos generativos como ChatGPT, ha abierto un abanico de posibilidades. Documentación automatizada, resumen de textos jurídicos, análisis predictivo de sentencias. Estas funcionalidades aportan eficiencia y reducen carga operativa. Sin embargo, al atribuirles un aura de infalibilidad, algunos juristas empiezan a delegar en la tecnología funciones que requieren juicio, experiencia y una comprensión del contexto que las máquinas aún no poseen.

Este fenómeno tiene ecos preocupantes del pensamiento mágico que acompañaba a los oráculos antiguos. Como aquellos pueblos que creían en la autoridad incuestionable del mensaje divino, algunos operadores jurídicos depositan en la IA una confianza desmedida, olvidando que esta no interpreta el mundo sino que procesa datos. La IA no razona; calcula probabilidades intertextuales, y si bien su capacidad para cruzar grandes volúmenes de información puede resultar impresionante, sus respuestas carecen del componente crítico que distingue al pensamiento jurídico.

La analogía con los oráculos antiguos no es meramente anecdótica. En ambos casos, el riesgo es doble: de un lado, la delegación de la responsabilidad en una entidad superior; del otro, la ilusión de neutralidad. El oráculo de Delfos no era neutral. Respondía enigmáticamente, en función de las tensiones políticas de su tiempo. La IA, aunque se perciba como objetiva, no es más que un reflejo de los datos con los que ha sido entrenada. Si esos datos reproducen sesgos —como ocurre frecuentemente—, la IA los amplificará con una lógica impecable pero sin conciencia crítica.

Esta tendencia tiene consecuencias prácticas graves para los abogados. Se están viendo ya ejemplos de despachos que utilizan IA para decidir estrategias procesales o redactar escritos judiciales y contratos sin supervisión humana suficiente. Un caso reciente ilustra con nitidez este peligro.

En septiembre de 2024, el Tribunal Superior de Justicia de Navarra emitió un auto (ATSJ NA 38/2024) en el que constataba que una parte querellante había incluido en su escrito una cita legal inexistente en el ordenamiento español. La supuesta norma provenía del Código Penal de Colombia, y había sido introducida por un sistema de IA —ChatGPT 3.5— mal empleado por el abogado. Aunque el letrado presentó excusas y evitó la sanción, la resolución advierte con claridad que este tipo de errores no solo comprometen la calidad del proceso, sino que pueden constituir mala fe procesal.

El auto cita también un estudio de 2024 (Matthew Dahl et al.) que demuestra que las “alucinaciones legales” —respuestas erróneas o inventadas por modelos de IA— son frecuentes: ocurren en el 69% de los casos con ChatGPT 3.5. Esta cifra es escalofriante en un contexto donde la precisión jurídica no es una opción, sino una exigencia.

El derecho no es solo norma y procedimiento: es interpretación, valores, historia, lenguaje. En este sentido, la IA puede ser una herramienta útil, pero no debe confundirse con un sustituto del razonamiento jurídico. El abogado no es un mero aplicador de normas, sino un profesional que conjuga la técnica con la prudencia, la experiencia con la intuición. En palabras del investigador en neurociencia Michel Desmurget, estamos asistiendo a una “fábrica de cretinos digitales” donde el pensamiento profundo se reemplaza por respuestas instantáneas y superficiales.

La IA puede aportar una primera capa de análisis, pero la decisión final, especialmente en temas de relevancia ética o estratégica, debe recaer siempre en el criterio humano. De lo contrario, corremos el riesgo de delegar nuestras responsabilidades en una maquinaria que, por sofisticada que sea, no entiende ni lo que es el bien ni lo que es el mal. Como los antiguos pueblos que consultaban al oráculo antes de ir a la guerra, los juristas del siglo XXI deben preguntarse si están dispuestos a aceptar respuestas sin hacerse preguntas.

En definitiva, la IA no es Apolo, ni el código binario es palabra divina; tratarlo como tal rozaría una forma contemporánea de idolatría. Es tiempo de recordar que el derecho, en su esencia, no es una ciencia exacta sino una práctica interpretativa que requiere conciencia crítica, comprensión del contexto y, sobre todo, responsabilidad humana. Reemplazar el razonamiento por la reverencia a la máquina no solo empobrece el ejercicio profesional; puede también poner en riesgo los valores fundamentales que el derecho pretende proteger.

Nota: partes de este artículo han sido revisadas o redactadas con ChatGPT.

Comparte: