Juillet 30 2025

L’IA en prison : un risque pour les droits fondamentaux ou un outil de réinsertion ?

Par Pasteur A. Cañas Pérez, membre de la Commission du droit pénitentiaire de la Colegio de la Abogacía de Cordova.

L'intelligence artificielle (IA) touche de plus en plus de secteurs d'activité humaine et son utilisation généralisée dans le domaine pénitentiaire ne tardera pas à atteindre notre centre pénitentiaire de référence. À ce stade, les avocats sauront-ils contester une décision prise grâce à un outil technologique de ce niveau ou l'automatisation de notre système prévaudra-t-elle ? individualisation scientifique?

En réalité, en Espagne, en 2023, une tentative d'utilisation de l'IA a été menée dans le cadre d'un projet pilote au centre pénitentiaire Mas d'Enric de Tarragone. Ce test consistait à analyser les expressions faciales et le langage corporel des détenus à l'aide d'images enregistrées par des caméras de surveillance internes afin de prévenir les risques et de classer les individus en fonction de leur susceptibilité à provoquer des incidents de sécurité. Cette classification pourrait conduire à des décisions affectant le traitement pénitentiaire, l'octroi potentiel de permis et d'autres avantages. Tout cela sans que la personne concernée ait à adopter un comportement répréhensible. Le projet a été interrompu après l'attribution du marché, sans même être mis en œuvre. La raison de l'interruption de l'expérimentation était l'entrée en vigueur imminente du règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des normes harmonisées en matière d'intelligence artificielle (en vigueur depuis le 1er août 2024), qui imposait un examen avant le lancement du projet. À ce jour, sa mise en œuvre n'a pas eu lieu.

En Catalogne, en revanche, le système RisCanvi est appliqué (Risc à Canvi, en espagnol : risque et changement) dont software Il fonctionne grâce à des algorithmes, même si techniquement, ce système ne peut être qualifié d'intelligence artificielle. Quelque 800 psychologues, avocats, criminologues, éducateurs et travailleurs sociaux travaillent régulièrement avec ce programme, dont l'algorithme est alimenté par les évaluations des détenus, complétées par les autorités et connectées aux bases de données des prisons. En réalité, RisCanvi fonctionne, ou du moins ses erreurs n'ont pas suscité plus de débats que celles que peut susciter l'erreur humaine. Selon la seule étude publique ayant évalué l'algorithme RisCanvi, en 2014, on estimait que 77 % des détenus identifiés comme présentant un risque moyen ou élevé de récidive avaient récidivé, tandis que 57 % de ceux qui n'avaient pas récidivé avaient été classés comme présentant un risque faible.

En dehors de l'Espagne, nous savons Compas (Profilage des délinquants en vue de sanctions alternatives), Le système informe les juges du risque de récidive des détenus lorsqu'ils leur accordent une libération conditionnelle, un permis de conduire ou des avantages pénitentiaires. L'algorithme tend à prédire que les Afro-Américains présentent un risque de récidive plus élevé que les Blancs. Il s'agit probablement d'un simple transfert de biais des développeurs vers l'algorithme, ou simplement du fait qu'un nombre important d'Afro-Américains sont issus de milieux à forte prévalence de facteurs criminogènes (pauvreté et faible niveau d'éducation, essentiellement). Cette tendance a pour conséquence de perpétuer les inégalités déjà existantes au sein du système pénal américain. De plus, le système ayant été développé par une entité privée, il est difficile d'évaluer de manière exhaustive son équité et son efficacité.

En Europe, et à terme en Espagne, la mise en œuvre définitive des systèmes d’IA dans les prisons sera précédée d’une réglementation, dont nous, Européens, sommes experts :

Le 3 décembre 2018, le Conseil de l’Europe a signé la Charte européenne d’éthique sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Ses principes : le respect des droits fondamentaux ; la non-discrimination, en particulier la prévention du développement ou de l'intensification de toute discrimination entre individus ou groupes d'individus ; la qualité et la sécurité du traitement des données et des décisions judiciaires ; la transparence, l'impartialité et l'équité ; et enfin, le principe sous le contrôle de l'utilisateur veiller à ce que les utilisateurs soient informés et maîtres de leurs choix. Le chapitre 7, consacré à Questions spécifiques en justice pénale : prévention de la criminalité, risque de récidive et évaluation du niveau de dangerosité. Elle nous avertit que, même si les systèmes ne sont pas spécifiquement conçus pour être discriminatoires, l’utilisation d’algorithmes et d’intelligence artificielle dans les procédures pénales a montré le risque de nous faire évoluer vers des positions déterministes, plutôt que vers des sanctions individualisées, ce qui représente une régression par rapport aux systèmes judiciaires européens.

Par la suite, en octobre 2024, le Conseil des ministres des États membres du Conseil de l’Europe a adopté la Recommandation CM/Rec(2024)-5 sur les aspects éthiques et organisationnels de l'utilisation de l'intelligence artificielle et des technologies similaires dans les prisons et les services de probationLa recommandation souligne l'utilité de l'intelligence artificielle pour améliorer les systèmes de gestion, en fournissant des alertes en cas de non-conformité potentielle, mais prévient que les décisions doivent toujours être prises par un humain. Elle doit également fournir des outils dotés de mécanismes précis permettant d'éviter ou de contrôler les biais. Il ne semble pas suffisant que la recommandation stipule que la prise de décision humaine doit prévaloir sur celle d'une machine, car, en pratique, qui oserait prendre des décisions contre le jugement des outils d'intelligence artificielle, qui peuvent toujours être tenus responsables en cas d'erreur (par exemple, la commission d'un délit pendant un congé) ?

Enfin, et dans le cadre spécifique de l'Union européenne, tout programme mis en œuvre dans un centre pénitentiaire doit respecter les dispositions du Règlement sur l'intelligence artificielle (UE) qui, parmi ses pratiques interdites, comprend la commande ou l'utilisation de systèmes d'IA pour évaluer ou classer des personnes physiques ou des groupes de personnes sur une période de temps déterminée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, de telle sorte que le score citoyen qui en résulte provoque une ou plusieurs des situations suivantes : (i) un traitement préjudiciable ou défavorable de certaines personnes physiques ou groupes de personnes dans des contextes sociaux qui ne sont pas liés aux contextes dans lesquels ils ont été initialement générés ou collectés ; (ii) un traitement préjudiciable ou défavorable de certaines personnes physiques ou groupes de personnes qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de ce comportement.

En bref, l'émergence de l'intelligence artificielle dans le domaine pénitentiaire pose un dilemme fondamental entre efficacité technologique et préservation des droits fondamentaux. Si les avancées promettent d'améliorer la gestion des risques et la prévention, le recours à des algorithmes pour classer les personnes sans comportement répréhensible préalable, et avec peu de contrôle humain réel, menace d'éroder des principes essentiels tels que l'individualisation des peines, la présomption d'innocence et l'égalité devant la loi. La réglementation européenne fixe certes des limites, mais la pratique montre qu'une confiance aveugle dans les machines peut finir par supplanter le jugement humain. L'enjeu n'est donc pas technique, mais profondément juridique et éthique : saurons-nous maintenir la dignité de l'individu au cœur du système, ou finirons-nous par être soumis à une justice prédictive et dépersonnalisée ?

 

Partagez: