Innovación Legal
21 julio 2025
Por Jorge Morell
En el contexto de la inteligencia artificial, una «alucinación» se refiere a cuando un modelo de IA genera resultados que son incorrectos, inventados o carecen de base en la realidad, a pesar de parecer coherentes y plausibles. Es como si el modelo «soñara» o inventara información, en lugar de basarse en datos reales.
Por ejemplo, decir que una persona está muerta (cuando está muy viva), acusar a alguien de cometer un delito que es completamente falso o inventarse una ley, artículo o cita jurisprudencial.
“AI Hallucination Cases”, es una base de datos para conocer sobre alucinaciones en procesos judiciales y sus consecuencias.
Creada por Damien Charlotin, consiste en un recurso curioso y útil para documentar artículos o presentaciones cuando uno busca casos en los que abogados han usado IA en tribunales, la IA se ha inventado algo y ese hecho ha tenido consecuencias, desde sanciones a suspensiones o la obligación de volver a plantear el escrito.
Ya hace poco más de un mes incluía más de 125 casos documentados a nivel mundial. A día de hoy incluye 191 casos. O lo que es lo mismo, el paso del tiempo no hace que la cosa mejore, ya que más del 30% de los casos es del último trimestre.
Es decir, el incremento en el número de alucinaciones por parte de abogados que utilizan incorrectamente la inteligencia artificial en sus escritos judiciales, y su divulgación pública, no está haciendo que los profesionales del Derecho sean más conscientes de los riesgos de estas herramientas. Todo lo contrario, los casos donde se localizan alucinaciones en escritos judiciales no dejan de crecer.
De hecho, la semana pasada superamos la siguiente barrera ya que se ha localizado la primera decisión judicial basada en jurisprudencia alucinada por una IA e incorporada por una de las partes
En este caso, un tribunal de primera instancia en Georgia (EEUU) emitió una resolución basándose en jurisprudencia inexistente generada, presumiblemente, por inteligencia artificial, en el caso Shahid v. Esaam.
El proceso se originó cuando el marido obtuvo el divorcio de su esposa mediante notificación por edictos. La esposa impugnó el fallo alegando falta de diligencia en la localización y notificación personal. Para defenderse, la abogada del marido presentó un escrito con dos sentencias alucinadas, que el juez de instancia citó literalmente al desestimar la petición de la esposa.
Al elevarse el asunto al Tribunal de Apelaciones de Georgia, la Sala Primera detectó irregularidades aún mayores: el escrito de apelación del marido citaba 15 decisiones anteriores y 11 eran alucinaciones o no guardaban relación con los argumentos planteados.
El tribunal tachó la práctica de “profundamente inquietante” y atribuyó el origen de las citas a un modelo generativo de IA, recordando la advertencia del presidente del Tribunal Supremo de EE. UU., John Roberts, sobre los peligros de los “hallazgos imaginarios” de la IA.
Como consecuencia:
– Se anuló la resolución de primera instancia y se ordenó celebrar una nueva vista sobre la validez de la notificación.
– Se impuso a la letrada del marido la máxima sanción prevista (2.500 dólares) por presentar una “moción frívola” y usar citas ficticias.
– El tribunal incluyó en un anexo la lista completa de sentencias ficticias y recordó que los abogados siguen siendo los “guardianes” de la veracidad de sus escritos, incluso si emplean herramientas de IA.
Hasta donde sabemos, sería el primer caso en el que una resolución de fondo de un tribunal de primera instancia (en EEUU) se basa en casos alucinados por IA antes de ser corregida en apelación.
También en España se ha amonestado a abogados por el uso incorrecto de inteligencia artificial en escritos judiciales, por ejemplo ante el Tribunal Constitucional.
El último responsable de los escritos presentados a un organismo judicial está claro que es el propio abogado. El uso de inteligencia artificial puede ser una gran ventaja, pero hay que ser consciente de sus limitaciones y revisar los resultados que nos ofrece la IA.
Todo ello va a requerir formación de los profesionales al usar inteligencia artificial. Además, no olvidemos que el Reglamento Europeo sobre Inteligencia Artificial (en su art. 4), ya en vigor, obliga a proveedores y responsables del despliegue de sistemas de IA a garantizar que “su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA”.
También a los abogados nos acabará afectando esta obligación.
En resumen, usemos la inteligencia artificial pero seamos conscientes de sus limitaciones y la necesidad de revisar sus respuestas si las mismas van a ser incorporadas en entregables para un cliente o un tercero.