12 enero 2026
La IA alucina: la diferencia la marca el profesional
Por Concepción Campos Acuña, coordinadora de Upro (programa formativo en Competencias Digitales) y miembro del Consejo Asesor sobre Innovación, Abogacía y Justicia Digital de la Abogacía.
La inteligencia artificial alucina. Esta afirmación, lejos de ser alarmista, debe ser el punto de partida imprescindible para cualquier reflexión seria sobre la integración de estas herramientas en el ejercicio profesional del derecho.
¿Qué es una alucinación? Cuando hablamos de «alucinaciones» nos referimos a la tendencia de los sistemas de IA generativa a fabricar información que parece veraz, coherente y técnicamente correcta, pero que carece de fundamento real. En el ámbito jurídico, esto se traduce en la invención de referencias jurisprudenciales inexistentes, citas doctrinales apócrifas o interpretaciones normativas que nunca han sido sostenidas por tribunal alguno.
Precisamente porque este fenómeno es inherente al funcionamiento actual de estos sistemas, la alfabetización digital y las competencias técnicas no son opcionales: son la única salvaguarda efectiva. No basta con utilizar la IA; es imprescindible comprenderla lo suficiente para identificar sus limitaciones, verificar sus resultados y establecer los controles adecuados.
Las competencias digitales no son un añadido formativo deseable, sino la condición de posibilidad para un uso responsable y profesional de estas tecnologías.
La realidad supera la ficción
La casuística internacional, y también nacional, nos ofrece ejemplos que deben servir como advertencia y aprendizaje. En Estados Unidos hemos sido testigos recientemente de casos que han sacudido la comunidad jurídica: abogados que han presentado escritos citando sentencias completamente inventadas por sistemas de IA, casos que han derivado en sanciones disciplinarias, pérdida de credibilidad profesional y daños reputacionales de difícil reparación.
En nuestro entorno también hemos visto asomar la duda sobre el uso de herramientas de IA por parte de abogados, jueces y demás operadores jurídicos. Estas dudas no son infundadas ni revelan la existencia de luditas, sino una legítima preocupación por garantizar la calidad, rigor y veracidad que exige el ejercicio del derecho.
Porque estos episodios no son anécdotas aisladas ni errores de principiantes desprevenidos; son la manifestación de una brecha formativa que afecta a profesionales experimentados que (aún) no han desarrollado las competencias necesarias para discernir cuándo la IA está fabricando contenido.
Integración sí, pero con garantías
Es fundamental que los profesionales del sector legal incorporemos el uso de la inteligencia artificial en nuestra práctica profesional. La IA ofrece capacidades extraordinarias: análisis de grandes volúmenes documentales, identificación de patrones jurisprudenciales, generación de borradores preliminares, investigación exploratoria de cuestiones complejas.
Rechazar estas herramientas por principio sería tan irresponsable como adoptarlas sin criterio. La clave está en la integración con supervisión y conocimiento.
No se trata de tener miedo a los riesgos que presenta la IA, sino de garantizar que podemos aprovechar todas las oportunidades que ofrece con la suficiente garantía profesional y deontológica. No se trata de temer el uso de la IA. El miedo es paralizante e improductivo; la prudencia informada es estratégica y necesaria.
La diferencia radica en la formación: quien conoce las capacidades y limitaciones de estas herramientas puede desplegar protocolos de verificación efectivos, establecer flujos de trabajo que minimicen errores y maximicen eficiencia, y distinguir qué tareas pueden delegarse parcialmente en la IA y cuáles requieren exclusivamente juicio humano.
Riesgos concretos para el ejercicio profesional de la abogacía
Para quienes ejercemos la abogacía, las posibilidades de que la IA invente referencias de sentencias, normativas o doctrinales son elevadas y representan riesgos muy concretos.
Una sentencia ficticia citada en un escrito procesal no solo compromete la argumentación jurídica; puede constituir una falta deontológica grave, generar responsabilidad profesional frente al cliente y erosionar la confianza que el tribunal deposita en nuestra palabra. La reputación profesional, construida durante años de ejercicio riguroso, puede verse comprometida por la incorporación acrítica de contenido generado artificialmente.
Las consecuencias van más allá de la pérdida de credibilidad. Dependiendo de las circunstancias, podemos enfrentarnos a responsabilidades disciplinarias ante los colegios profesionales, responsabilidad civil frente a clientes perjudicados por estrategias defectuosas basadas en información falsa, e incluso, en casos extremos, consecuencias de índole penal si la utilización de documentación falsa se considera constitutiva de delito.
El desconocimiento de las limitaciones de la herramienta no constituye eximente cuando nuestra obligación profesional es garantizar la veracidad y rigor de nuestro trabajo. Diligencia debida.
Hacia una práctica profesional responsable
La respuesta adecuada no es ni la prohibición ni la adopción entusiasta sin filtros de la IA, sino la construcción de una práctica profesional responsable que integre esta tecnología como herramienta auxiliar sometida a supervisión humana cualificada.
¿Cómo hacerlo?
- Primero, Alfabetización. Formación continua en competencias digitales que nos permita comprender cómo funcionan estos sistemas, qué pueden y qué no pueden hacer, y dónde residen sus principales vulnerabilidades.
- Segundo, Supervisión. Establecimiento de protocolos de verificación que conviertan la comprobación de fuentes en un paso no negociable antes de incorporar cualquier contenido generado por IA a nuestro trabajo profesional.
- Tercero, Transparencia. Adoptar una cultura de transparencia que nos lleve a documentar cuándo y cómo utilizamos estas herramientas, facilitando trazabilidad y accountability.
Por tanto, la pregunta no es si los profesionales del sector legal están utilizando la IA sino si cuentan con la formación suficiente para hacerlo de manera crítica y verificada. La supervisión humana informada no es un freno a la innovación; es la condición que permite que la innovación sea, efectivamente, progreso.
En definitiva, puede que la IA sea capaz de redactar un escrito en pocos minutos, pero solo tú puedes garantizar que cada sentencia o referencia legal citada existe: esa verificación es lo que te convierte en profesional, no en usuario.




