Janvier 12 2026

L'IA est incroyable : c'est le professionnel qui fait la différence

Par Concepcion Campos Acuña, Coordonnatrice d'Upro (programme de formation aux compétences numériques) et membre du Conseil consultatif sur l'innovation, le droit et la justice numérique de la profession juridique. 

X: @mccamposacunha

L’intelligence artificielle est fascinante. Loin d’être alarmiste, cette affirmation devrait constituer le point de départ essentiel de toute réflexion sérieuse sur l’intégration de ces outils dans la pratique professionnelle du droit.

Qu’est-ce qu’une hallucination ? Lorsque nous parlons d’« hallucinations », nous faisons référence à la tendance des systèmes d’IA générative à produire des informations qui semblent véridiques, cohérentes et techniquement correctes, mais qui sont dépourvues de tout fondement réel. Dans le domaine juridique, cela se traduit par l’invention de jurisprudence inexistante, de citations doctrinales apocryphes ou d’interprétations normatives qui n’ont jamais été validées par aucun tribunal.

Précisément parce que ce phénomène est inhérent au fonctionnement actuel de ces systèmes, la maîtrise du numérique et les compétences techniques ne sont pas facultatives : elles constituent la seule garantie efficace. Il ne suffit pas d’utiliser l’IA ; il est essentiel de la comprendre suffisamment pour identifier ses limites, vérifier ses résultats et mettre en place des contrôles appropriés.

Les compétences numériques ne constituent pas un atout pédagogique souhaitable, mais plutôt une condition préalable à une utilisation responsable et professionnelle de ces technologies.

La réalité dépasse la fiction

La jurisprudence internationale et nationale offre des exemples qui devraient servir à la fois d'avertissement et de leçon. Aux États-Unis, nous avons récemment assisté à des affaires qui ont ébranlé le monde juridique : des avocats ayant déposé des mémoires s'appuyant sur des décisions entièrement fabriquées par des systèmes d'intelligence artificielle, des affaires ayant entraîné des sanctions disciplinaires, une perte de crédibilité professionnelle et une atteinte à la réputation difficilement réparable.

Dans nos milieux, nous avons également constaté des inquiétudes quant à l'utilisation des outils d'IA par les avocats, les juges et autres professionnels du droit. Ces inquiétudes ne sont pas infondées et ne révèlent en rien l'existence de technophobes ; elles témoignent plutôt d'une préoccupation légitime pour garantir la qualité, la rigueur et l'exactitude qu'exige Exercise de la profession .

Car ces épisodes ne sont pas des anecdotes isolées ou des erreurs de débutants naïfs ; ils sont la manifestation d'un manque de formation qui touche des professionnels expérimentés qui n'ont (toujours) pas développé les compétences nécessaires pour discerner quand l'IA crée du contenu.

L'intégration, oui, mais avec des garanties.

Il est essentiel que les professionnels du droit intègrent l'intelligence artificielle à leur pratique. L'IA offre des capacités extraordinaires : analyse de volumes importants de documents, identification de tendances jurisprudentielles, génération d'ébauches préliminaires et recherches exploratoires sur des questions complexes.

Rejeter ces outils par principe serait aussi irresponsable que de les adopter sans les avoir soigneusement étudiés. La clé réside dans leur intégration à un encadrement et à une expertise reconnus.

Il ne s'agit pas de craindre les risques liés à l'IA, mais de s'assurer de pouvoir tirer pleinement parti de toutes les opportunités qu'elle offre, en prenant les précautions professionnelles et éthiques nécessaires. Il ne s'agit pas de redouter l'utilisation de l'IA. La peur paralyse et nuit à la productivité ; une prudence éclairée est stratégique et indispensable.

La différence réside dans la formation : ceux qui connaissent les capacités et les limites de ces outils peuvent déployer des protocoles de vérification efficaces, établir des flux de travail qui minimisent les erreurs et maximisent l’efficacité, et distinguer les tâches qui peuvent être partiellement déléguées à l’IA et celles qui nécessitent exclusivement un jugement humain.

Risques spécifiques liés à l'exercice du droit

Pour ceux d'entre nous qui exercent le droit, les possibilités que l'IA invente des références à des jugements, des règlements ou des doctrines sont élevées et représentent des risques très concrets.

Une décision falsifiée citée dans un document juridique compromet non seulement l'argumentation juridique, mais peut également constituer une grave violation de la déontologie, engager la responsabilité professionnelle envers le client et éroder la confiance du tribunal en notre parole. Une réputation professionnelle, bâtie au fil d'années de pratique rigoureuse, peut être mise en péril par l'inclusion non critique de contenu artificiellement généré.

Les conséquences vont bien au-delà d'une simple perte de crédibilité. Selon les circonstances, nous pourrions faire l'objet de mesures disciplinaires de la part d'ordres professionnels, être tenus responsables civilement envers les clients lésés par des stratégies erronées fondées sur de fausses informations, et même, dans des cas extrêmes, de poursuites pénales si l'utilisation de faux documents est considérée comme un délit.

L'ignorance des limites de l'outil ne saurait justifier un manquement à notre obligation professionnelle de garantir l'exactitude et la rigueur de notre travail. Diligence raisonnable.

Vers une pratique professionnelle responsable

La réponse appropriée n'est ni l'interdiction ni l'adoption enthousiaste et sans filtre de l'IA, mais la construction d'une pratique professionnelle responsable qui intègre cette technologie comme un outil auxiliaire soumis à une supervision humaine qualifiée.

Comment le faire?

  • Tout d'abord, l'alphabétisation. Une formation continue aux compétences numériques qui nous permette de comprendre comment fonctionnent ces systèmes, ce qu'ils peuvent et ne peuvent pas faire, et où se situent leurs principales vulnérabilités.
  • Deuxièmement, la supervision. Établir des protocoles de vérification qui fassent du contrôle des sources une étape incontournable avant d'intégrer tout contenu généré par l'IA dans notre travail professionnel.
  • Troisièmement, la transparence. Adoptons une culture de transparence qui nous amène à documenter quand et comment nous utilisons ces outils, facilitant ainsi la traçabilité et la responsabilisation.

La question n’est donc pas de savoir si les professionnels du droit utilisent l’IA, mais s’ils sont suffisamment formés pour l’utiliser de manière critique et avec discernement. Un contrôle humain éclairé n’est pas un frein à l’innovation ; c’est la condition qui permet à l’innovation de se transformer véritablement en progrès.

En fin de compte, l'IA peut certes rédiger un document en quelques minutes, mais vous seul pouvez garantir l'existence de chaque phrase citée ou référence juridique : c'est cette vérification qui fait de vous un professionnel, et non un simple utilisateur.

 

Partagez: