Janvier 28 2026

Projet de loi du gouvernement sur l'honneur, la vie privée et l'image personnelle. Une réforme visant à s'adapter à l'ère numérique.

Par Édouard Blasi, avocat spécialisé en IA et protection de la vie privée.

Le droit à l'honneur, au respect de la vie privée et familiale, ainsi qu'au droit à l'image, consacrés par l'article 18.1 de la Constitution, est aujourd'hui confronté à des tensions constantes dans l'écosystème numérique. À la tension traditionnelle entre droits de la personnalité et libertés de communication s'ajoute la possibilité de capturer, de reproduire et de redistribuer des contenus (notamment des images et des vidéos) quasi instantanément, à grande échelle et souvent dans des contextes différents de ceux dans lesquels ils ont été partagés.

À cela s'ajoute un phénomène qualitativement différent : la capacité de générer et de manipuler des images, des voix et des expressions hyperréalistes grâce à des systèmes d'IA. Le préjudice ne se limite plus à la diffusion de contenu authentique sans consentement ; il peut provenir de la création ou de la modification numérique d'éléments d'identification donnant une apparence d'authenticité, ou encore de l'utilisation non autorisée d'une identité (visage, voix, langage corporel, etc.) à des fins échappant au contrôle de son propriétaire.

Dans ce contexte, le Conseil des ministres a approuvé, le 13 janvier 2026, le projet de loi organique relatif à la protection civile du droit à l’honneur, au respect de la vie privée et familiale et au droit à l’image, en vue de remplacer la loi organique 1/1982 et d’adapter sa protection à l’environnement numérique. Ce projet de loi ne modifie pas le fondement constitutionnel de ces droits, mais vise à traduire les risques contemporains en catégories civiles plus précises, renforçant ainsi la capacité de réaction, notamment par des mesures préventives, et l’efficacité des voies de recours.

Il ne s'agit pas d'une réforme mineure. Le texte se concentre sur trois fronts qui, dans la pratique, ont mis à rude épreuve le cadre de 1982 : le consentement et sa portée réelle sur les réseaux sociaux ; la manipulation et la simulation technologiques des images et des voix ; et l'exposition de groupes particulièrement vulnérables, tels que les mineurs ou les victimes de revictimisation. À cela s'ajoutent des mécanismes visant à renforcer la réparation (critères de quantification du préjudice moral et publication de la peine) et, surtout, des mesures d'urgence (mesures de précaution) afin d'éviter que la protection juridique ne soit sollicitée qu'après la diffusion massive du contenu. Le projet de loi aborde également des situations nouvelles, telles que l'exploitation post-mortem de l'identité par l'intelligence artificielle ou la monétisation de l'infraction par la personne condamnée, où le préjudice est non seulement informationnel, mais aussi structurel et commercial.

Une réforme nécessaire pour un environnement radicalement différent

La protection civile de l'honneur, de la vie privée et du droit à l'image repose principalement sur l'article 18.1 de la Constitution. Conformément à ce principe, la loi organique 1/1982 a institué un système de défense contre les atteintes illicites et en a défini les conséquences : cessation de l'atteinte, réparation du préjudice (notamment moral), publication du jugement et autres mesures de réparation. Cette loi a été interprétée pendant des décennies par les tribunaux, qui ont appliqué une méthode d'équilibre mettant en balance les droits de la personnalité et les libertés consacrées par l'article 20, en tenant compte de paramètres tels que l'intérêt public, la véracité, la proportionnalité et la nécessité.

Cependant, cette architecture a été conçue pour un environnement communicationnel et technologique profondément différent. Aujourd'hui, les contenus circulent sur des plateformes régies par des logiques d'amplification algorithmiques ; la paternité des contenus est fragmentée entre ceux qui les créent, les partagent, les modifient et les recommandent ; et la frontière entre contenus authentiques, manipulés ou synthétiques est de plus en plus floue. Dans ce contexte, une protection qui intervient trop tard est souvent insuffisante. La réforme vise donc à rendre le système à nouveau opérationnel lorsque le dommage survient en quelques secondes et se propage par réplication.

Points clés du projet de loi

Le premier changement ayant un impact immédiat concerne la délimitation du consentement dans l'environnement numérique. Le projet de loi confirme qu'il n'y aura pas d'intrusion illicite lorsqu'un consentement explicite est donné pour l'usage spécifique en question, limité à la finalité, au contexte et à l'étendue de la diffusion pour lesquels il a été donné. Tout usage dépassant ces paramètres, même autorisé par un consentement préalable, constituera une intrusion illicite. La conséquence pratique est claire : partager une image sur un réseau social n'autorise pas automatiquement les tiers à la réutiliser sur d'autres canaux, dans d'autres contextes ou à des fins différentes. En bref, il consolide une forme de consentement ciblée et contextuelle.

Cette logique nous oblige à abandonner les approches simplistes telles que « si c'est sur Internet, c'est libre d'utilisation ». Pour déterminer si une utilisation dépasse les limites du consentement, l'analyse doit être approfondie : prendre en compte les paramètres de confidentialité du contenu original (public, restreint, éphémère), le changement de finalité (personnel, informatif, commercial), l'étendue de sa diffusion (diffusion restreinte ou virale), le degré de transformation (neutre ou dénigrant ou sexualisant) et les attentes légitimes du titulaire des droits d'auteur. En pratique, la charge de la preuve incombe à la personne qui réutilise le contenu : elle doit justifier en quoi son utilisation relève du consentement ou d'une exception légitime.

Le deuxième axe prioritaire concerne la lutte contre l'usurpation d'identité numérique par le biais de deepfakes, conformément à la terminologie du règlement (UE) 2024/1689 relatif à l'intelligence artificielle (loi sur l'IA). Le projet de loi intègre deux scénarios distincts d'intrusion illicite : (i) l'utilisation ou la diffusion d'images ou de voix créées, simulées ou manipulées pour présenter un réalisme saisissant ; et (ii) l'utilisation d'un nom, d'une voix ou d'une image (réelle ou simulée technologiquement) à des fins publicitaires, commerciales ou similaires. Ceci couvre à la fois l'atteinte à la réputation résultant de la tromperie et l'exploitation économique de l'identité, empêchant ainsi toute défense fondée sur l'argument selon lequel le contenu n'est « qu'une » reconstitution artificielle.

Parallèlement, le texte s'efforce de préserver l'équilibre constitutionnel avec les libertés consacrées par l'article 20. Il révise et élargit le régime des exceptions. Il stipule notamment que la divulgation ou la diffusion de communications privées ne constitue pas une ingérence illicite lorsque les faits divulgués sont directement liés à des questions d'intérêt public ou général. De plus, il prévoit une exception pour les personnalités publiques : l'utilisation de ces techniques est autorisée dans des contextes créatifs, satiriques ou fictionnels, à condition qu'il soit clairement indiqué que l'intelligence artificielle ou des technologies similaires sont utilisées.

Le renforcement de la protection des mineurs est un autre point essentiel. Concernant le consentement, le projet de loi fixe à 16 ans l'âge auquel un mineur peut consentir à l'utilisation de son image ou de sa voix.

En dessous de cet âge, le consentement du représentant légal est requis, et le texte prévoit l'intervention du parquet lorsque la personne concernée est mineure. Même avec consentement, le texte impose une limite substantielle : celui-ci ne peut être donné lorsque l'utilisation de l'image ou de la voix constitue une atteinte illicite à l'intérêt supérieur du mineur, compte tenu notamment de son âge et de sa maturité, du risque pour sa vie ou son intégrité physique, et de la protection de ses données personnelles.

Concernant l'exploitation médiatique des faits divers, le projet de loi considère comme une intrusion illégale le fait pour une personne condamnée d'utiliser son crime à des fins lucratives, directement ou indirectement, ainsi que le fait pour les médias de l'exploiter pour se faire connaître du public, lorsque cela se produit sans le consentement des victimes et cause un préjudice supplémentaire à celui résultant du crime initial. L'objectif n'est pas d'empêcher le signalement des crimes, mais plutôt de limiter la monétisation opportuniste par la personne condamnée et la revictimisation de la victime. À cet égard, le texte prévoit la qualité pour agir de la victime, ainsi que celle du ministère public lorsque la victime est mineure, handicapée ou décédée.

Enfin, le projet de loi introduit un outil préventif particulièrement pertinent à l'ère de l'IA : la protection post-mortem. Il permet aux individus, de leur vivant, d'interdire expressément l'utilisation de leur image ou de leur voix à des fins publicitaires, commerciales ou similaires, et de désigner une ou plusieurs personnes habilitées à autoriser ou à interdire une telle utilisation après leur décès. Le projet de loi modernise également les droits d'agir en l'absence de désignation, notamment en désignant le conjoint ou le partenaire dans une relation similaire ; à défaut, les descendants, ascendants ou frères et sœurs. Cette disposition vise à lutter contre le risque croissant de création d'identité posthume et d'exploitation du « marketing personnel » sans le contrôle de son propriétaire.

Efficacité et adaptation européenne

En matière d’indemnisation, le projet de loi vise à renforcer l’efficacité de la protection civile dans un contexte où les préjudices peuvent être massifs et persistants. Il établit des critères de quantification du préjudice moral (diffusion, impact social, durée, récidive, entre autres) et stipule expressément que l’indemnisation ne saurait être purement symbolique. Par ailleurs, il renforce la dimension réparatrice : la publication du jugement, assortie d’une diffusion équivalente, et la possibilité de sa publication au Journal officiel de l’État.

Toutefois, l'efficacité réelle dépend de la rapidité. C'est pourquoi la réforme intègre un amendement au Code de procédure civile afin d'introduire, à titre de mesure conservatoire, le retrait d'images ou de sons lorsque les conditions suivantes sont réunies : (i) l'existence d'une preuve prima facie ; (ii) le risque de propagation virale à grande échelle en raison du retard ; et (iii) l'absence d'atteinte disproportionnée à la liberté d'expression. La mesure sera adoptée à titre provisoire, selon les modalités et les délais fixés par le tribunal. Dans l'environnement numérique, où les contenus sont facilement reproduits et diffusés, une protection tardive est souvent insuffisante : la mesure conservatoire vise à limiter le préjudice avant qu'il ne s'enracine par la multiplication et la persistance.

Enfin, l'efficacité pratique dépend également du cadre réglementaire européen, qui constitue un niveau complémentaire. Le règlement sur les services numériques (DSA) renforce les mécanismes de notification et de contrôle sur les plateformes et habilite les autorités compétentes à émettre des injonctions contre les contenus illégaux et à demander des informations sur certains utilisateurs. L'obligation de transparence établie par le règlement (UE) 2024/1689 pour certains contenus synthétiques n'exonère pas l'opérateur de sa responsabilité civile au titre de ce règlement lorsque le contenu constitue une atteinte illicite à la vie privée. Les exigences de transparence de la loi sur l'intelligence artificielle peuvent être pertinentes, mais elles ne remplacent pas les exigences de consentement ni la protection civile des droits de la personnalité en cas d'atteinte illicite à la vie privée. Lorsque les obligations découlant de différentes réglementations se chevauchent, l'opérateur doit les harmoniser, en veillant à ce que le niveau de protection requis par chacune d'elles ne soit pas abaissé. En pratique, cela relance un débat classique : contre qui engager une action en justice lorsque les dommages se produisent en cascade ? L'expérience montre qu'il n'est pas toujours efficace d'intenter une action en justice uniquement contre l'utilisateur qui met en ligne le contenu. Parfois, la protection juridique exige de conjuguer actions contre l'auteur de la mise en ligne et demandes d'indemnisation contre les intermédiaires, notamment lorsque le contenu est redistribué ou réapparaît. Par conséquent, la coordination entre le droit civil national et les mécanismes prévus par la loi sur la divulgation sera essentielle.

En résumé, le projet de loi progresse dans une direction cohérente en cherchant à empêcher que la viralité ou l'utilisation de l'IA ne vident de leur sens les droits à la vie privée, à l'honneur et à l'image. Pour que cette ambition se traduise par une protection effective, il sera essentiel que la jurisprudence consolide les critères d'interprétation de notions ouvertes telles que « apparence extrêmement réaliste » et « information adéquate », et que les mesures conservatoires soient utilisées avec discernement : non comme un raccourci autoritaire, mais comme un outil permettant de prévenir un préjudice irréversible avant que la justice ne puisse statuer.

Partagez: