Blog de Derecho Penitenciario
30 julio 2025
Por Pastor A. Cañas Pérez, miembro de la Comisión de Derecho Penitenciario del Colegio de la Abogacía de Córdoba.
La inteligencia artificial (IA) llega cada vez a más sectores de la actividad humana y su uso generalizado en el ámbito penitenciario no tardará demasiado en llegar a nuestro centro penitenciario de referencia. Llegados a este punto ¿Sabremos los abogados impugnar una decisión adoptada con base en una herramienta tecnológica de este nivel o acaso vencerán los automatismos a nuestro sistema de individualización científica?
Lo cierto es que ya en España, en 2023, se intentó utilizar la IA en un proyecto piloto en el Centro Penitenciario Mas d´Enric de Tarragona. La prueba consistía en analizar a través de las imágenes registradas por las cámaras de vigilancia interna las expresiones faciales y el lenguaje corporal de los reclusos para prevenir riesgos y clasificar a los sujetos en función de su susceptibilidad a causar incidentes de seguridad. Tal clasificación podría dar lugar a decisiones que afectasen al tratamiento penitenciario, a la posible obtención de permisos y otros beneficios. Y todo ello sin que el sujeto en cuestión hubiese tenido que incurrir en ninguna conducta reprobable. El proyecto se detuvo tras la adjudicación del contrato, sin llegar siquiera a implantarse. El argumento para la paralización del experimento fue la entonces inminente entrada en vigor del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (en vigor desde el 1 de agosto de 2024), lo que aconsejaba una revisión antes de poner en marcha el proyecto. A día de hoy su puesta en marcha no se ha producido.
En Cataluña, sin embargo, sí se aplica el sistema RisCanvi (Risc i Canvi, en castellano: riesgo y cambio) cuyo software funciona con algoritmos aunque técnicamente no se puede hablar de este sistema como de un sistema de inteligencia artificial. Unos 800 psicólogos, juristas, criminólogos, educadores y trabajadores sociales operan habitualmente con este programa cuyo algoritmo se nutre de valoraciones sobre los reclusos que van añadiendo los funcionarios y se conecta con las propias bases de datos de las prisiones. Lo cierto es que RisCanvi funciona, o al menos sus errores no han generado más debate que aquel que puedan generar los errores humanos. Según el único estudio público que ha evaluado el algoritmo de RisCanvi, en 2014, se calculó que el 77% de los internos a quienes se identificó como de riego medio o alto reincidieron, mientras que el 57% de los que no volvieron a delinquir habían sido etiquetados como de bajo riesgo.
Fuera de España, conocemos a Compas (Correccional Offender Management Profiling for Alternative Sanctions), el sistema que informa a los jueces de las probabilidades de reincidencia de los presos a la hora de concederles la libertad condicional y permisos o beneficios penitenciarios. El algoritmo tiene una tendencia a predecir que los afroamericanos presentan un riesgo mayor de reincidir que los blancos. Probablemente, no se trate sino del traslado del sesgo de los desarrolladores al algoritmo o simplemente que los afroamericanos provienen, en un número importante, de entornos de alta prevalencia de factores criminógenos (pobreza y bajo nivel educativo, en esencia). La consecuencia de esta tendencia no es otra que la de perpetuar las desigualdades ya existentes en el sistema penal estadounidense. Por otro lado, al ser una entidad privada la desarrolladora del sistema, existen dificultades para evaluar exhaustivamente su justicia y eficacia.
En Europa, y finalmente en España, la implantación definitiva de sistemas de IA en las prisiones vendrá precedida de la regulación, que es aquello en lo que, como europeos, somos expertos:
El 3 de diciembre de 2018 se firmó en el Consejo de Europa la Carta Ética Europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno. Sus principios: el respeto de los derechos fundamentales; la no discriminación, previniendo específicamente el desarrollo o la intensificación de cualquier discriminación entre individuos o grupos de individuos; la calidad y seguridad respecto al procesamiento de datos y decisiones judiciales; la transparencia, imparcialidad y equidad y; finalmente, el principio bajo control del usuario asegurándose que los usuarios sean actores informados y en control de sus elecciones. De especial interés para nosotros en su capítulo 7, dedicado a Cuestiones especificas de la justicia penal: Prevención de delitos, riesgo de reincidencia y evaluación del nivel de peligro. Nos alerta de que a pesar de no estar los sistemas diseñados específicamente para ser discriminatorios, el uso de algoritmos e inteligencia artificial en los procesos penales ha mostrado el riesgo de trasladarnos a posiciones deterministas, en lugar de a una individualización de la sanción lo que supone una regresión respecto de los sistemas judiciales europeos.
Con posterioridad, en octubre de 2024, se adoptó por el Consejo de Ministros de los Estados Miembros del Consejo de Europa la Recomendación CM/Rec(2024)-5 relativa a los aspectos éticos y organizativos del uso de la inteligencia artificial y tecnologías similares en las prisiones y servicios de libertad condicional. La recomendación destaca la utilidad de la inteligencia artificial para la mejora de los sistemas de gestión, pudiendo proveer de alertas en caso de posibles incumplimientos, pero advierte que las decisiones siempre habrán de ser tomadas por parte de un ser humano. Asimismo, habrá de dotar a las herramientas de mecanismos precisos y que sean capaces de evitar o mantener controlados los sesgos. No parece suficiente que la recomendación diga que habrá de prevalecer la decisión humana sobre la de la máquina porque, en la práctica, ¿Quién se atreverá a tomar decisiones en contra del criterio de las herramientas de inteligencia artificial a quien siempre podrá dirigirse la responsabilidad en caso de error (por ejemplo, la comisión de un delito durante un permiso)?
Finalmente, y ya en el ámbito especifico de la Unión Europea, cualquier programa que se implante en un centro penitenciario deberá cumplir con las previsiones del Reglamento (UE) de Inteligencia Artificial que, entre sus prácticas prohibidas incluye la puesta en servicio o la utilización de sistemas de IA para evaluar o clasificar a personas físicas o a colectivos de personas durante un periodo determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes: (i) un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron originalmente; (ii) un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de éste.
En definitiva. la irrupción de la inteligencia artificial en el ámbito penitenciario plantea un dilema de fondo entre eficiencia tecnológica y la preservación de derechos fundamentales. Aunque los avances prometen mejorar la gestión y prevención de riesgos, el uso de algoritmos para clasificar personas sin una conducta previa reprobable, y con escaso control humano real, amenaza con erosionar principios esenciales como la individualización de la pena, la presunción de inocencia y la igualdad ante la ley. La regulación europea pone límites, sí, pero la práctica demuestra que la confianza ciega en la máquina puede acabar suplantando el juicio humano. El reto, por tanto, no es técnico, sino profundamente jurídico y ético: ¿seremos capaces de mantener la dignidad del individuo como centro del sistema o acabaremos sometidos a una justicia predictiva y despersonalizada?