19 Février 2026
L'intelligence artificielle dans les procédures judiciaires
Par Carlos Prat Westerlindh, avocat de Consejo General del Poder Judicial au sein du Service d'inspection et magistrat de la Audiencia Provincial Madrid.
Les machines peuvent sembler humaines, mais elles ne le sont pas. Elles peuvent traiter bien plus d'informations que notre cerveau ne pourra jamais en stocker ; elles peuvent tirer des leçons des décisions passées, déceler des schémas et proposer des solutions. Mais elles ne sont pas libres. Et la liberté – même celle de ne pas décider, de se tromper, d'agir à l'encontre de toute logique – demeure le domaine exclusif de l'humanité.
L'évolution actuelle de l'intelligence artificielle ne se limite plus à la collecte massive de données. Aujourd'hui, on parle de systèmes capables de traiter ces informations et de formuler des propositions de décision, entraînés à partir de décisions humaines antérieures, voire de leurs propres résultats. C'est ce que certains appellent l'« intelligence artificielle forte ».
Dans le domaine judiciaire, cette évolution est particulièrement significative. L'administration de la justice en Espagne souffre de problèmes structurels de dysfonctionnement et de lenteurs qui ont nécessité des réformes législatives urgentes. Cependant, la véritable transformation viendra moins d'ajustements procéduraux que du nouveau cadre européen : le règlement (UE) 2024/1689.
Ce règlement, dit RIA, classe comme « à haut risque » les systèmes qui assistent les autorités judiciaires dans l'interprétation des faits et du droit. Il en résulte une obligation de supervision humaine, des exigences strictes en matière de transparence et de traçabilité, ainsi qu'un renforcement du régime de contrôle. L'Europe a compris que lorsque la liberté ou la propriété des personnes sont en jeu, l'automatisation ne peut être sans limites.
Ce n’est pas un hasard si la Cour de justice de l’Union européenne a exercé une influence déterminante sur cette approche fondée sur les droits. Sa jurisprudence antérieure avait déjà mis en garde contre les risques liés aux décisions automatisées sans intervention humaine effective, notamment en matière de protection des données et de droits fondamentaux.
Justice prédictive et « juges robots »
Parmi les outils analysés, les systèmes de justice prédictive et d'aide à la décision se sont distingués. Ces instruments permettent d'évaluer les risques de récidive, les probabilités de succès des procédures et les tendances jurisprudentielles. En théorie, ils peuvent contribuer à une plus grande cohérence et prévisibilité. En pratique, cependant, ils soulèvent des questions préoccupantes.
Si un algorithme suggère une détention provisoire en se fondant sur le « risque statistique » de récidive, dans quelle mesure le juge conserve-t-il sa véritable indépendance ? S’agit-il d’une assistance technique ou d’un conditionnement invisible ?
Les systèmes de règlement en ligne des litiges (RLL), conçus comme de véritables « juges robots » capables de statuer automatiquement sur les demandes, sont encore plus problématiques. Selon les normes européennes, il s’agit de systèmes à haut risque incontestable. Les instances judiciaires ne peuvent les mettre en œuvre sans une réglementation interne définissant leur champ d’application et les garanties nécessaires.
La question fondamentale est constitutionnelle : la résolution des conflits peut-elle être institutionnalisée sans tenir compte des personnes concernées ? L’évaluation algorithmique des circonstances équivaut-elle au jugement humain ? Dans le domaine administratif, une plus grande marge de manœuvre est envisageable ; en matière de justice, où la décision incarne la souveraineté de l’État, la réponse exige une extrême prudence.
L'une des sources de retards les plus importantes concerne les procédures de jugement sommaire. Dans le cadre de procédures essentiellement documentaires et standardisées, l'IA pourrait intervenir sous certaines conditions strictes : délimitation objective des types d'affaires, traçabilité complète, contrôle judiciaire effectif et possibilité d'un examen humain approfondi.
L’essentiel n’est pas de remplacer le juge, mais de libérer des ressources des tâches répétitives afin de renforcer la fonction juridictionnelle là où le jugement humain est irremplaçable.
La profession juridique confrontée à sa propre transformation
La partie la plus pertinente du discours était sans doute celle consacrée à la profession juridique. Pendant des siècles, les avocats ont détenu un quasi-monopole sur l'interprétation des lois. Ils ont été l'intermédiaire indispensable entre le citoyen et le langage technique du droit.
L'intelligence artificielle générative bouleverse cet équilibre. Aujourd'hui, chacun peut poser une question en langage clair et obtenir une réponse juridiquement valable. Ceci ouvre la voie à une sorte d'« ubérisation » des services juridiques, où des formulaires intelligents et des systèmes automatisés permettent de résoudre des problèmes standardisés sans avoir recours à des conseils juridiques traditionnels.
Mais le défi n'est pas seulement économique. Il est structurel. L'afflux de capitaux technologiques et d'entreprises proposant des services juridiques basés sur l'IA met à rude épreuve des principes tels que l'interdiction du partage d'honoraires et l'indépendance professionnelle. Si un avocat est technologiquement – ou financièrement – dépendant d'une plateforme qui assure la prestation de services, peut-il encore prétendre à une pleine autonomie ?
À cela s'ajoutent de nouvelles obligations déontologiques. Le recours à l'IA exigera d'informer le client, d'expliquer ses limites et de garantir la qualité du résultat. Et surtout, de préserver le secret professionnel. La saisie de données sensibles dans des systèmes ouverts ou insuffisamment protégés peut entraîner la divulgation de secrets et des sanctions disciplinaires. La confidentialité n'est pas une simple formalité : elle est le fondement de la confiance.
Avec la médiation préalable obligatoire introduite par la loi organique 1/2025, l'IA peut jouer un rôle constructif. La simulation de scénarios, la proposition de solutions extrajudiciaires et l'identification de points d'accord potentiels sont autant de fonctions où la technologie peut faciliter les accords sans se substituer à la volonté des parties.
Ici, la machine ne décide pas : elle assiste.
Liberté, préjugés et contrôle
Tant que les objections concernant la justification des décisions automatisées et la limitation des biais ne seront pas levées, l'intelligence artificielle ne pourra pas être un substitut, mais un outil.
Le droit n'est pas qu'un simple calcul. Il est interprétation, contexte, prudence et, parfois, compassion. Les machines optimisent ; les humains délibèrent. Et dans cette délibération, même l'imperfection a sa place.
En fin de compte, ce qui est en jeu, ce n'est pas l'efficacité du système judiciaire, mais notre conception même de la liberté. Nous pouvons déléguer des tâches, des analyses et des propositions. Ce que nous ne pouvons déléguer, c'est la responsabilité ultime de décider.
Car, pour l'instant, seuls les êtres humains sont capables d'une chose aussi irrationnelle — et aussi profondément légale — que de choisir même à l'encontre de la logique.




