Mai 13 2021

L'intelligence artificielle à distance dans l'UE

Par Maitane Valdecantos. ÀBogada. Partenaire dans Auden

@maivaldeflores

L'intelligence artificielle (ci-après IA) est une technologie qui, en améliorant la prédiction ou en optimisant les ressources, peut apporter de grands bénéfices, à la fois économiques et sociaux, dans les secteurs les plus divers: la finance, les transports, le secteur public ou l'environnement moyen. Mais cela peut aussi présenter des risques et des conséquences négatives pour les individus et pour la société.

Pour cette raison, l'Union européenne entend préserver son leadership technologique, en garantissant les avantages des nouvelles technologies développées, mais toujours dans le respect des valeurs, des principes et des droits fondamentaux de l'Union.

Así, el pasado 21 de abril, la Comisión planteó la propuesta de marco normativo sobre IA con una serie de objetivos específicos: garantizar que los sistemas de IA comercializados y utilizados en el mercado de la UE sean seguros y respeten los derechos fundamentales y valores de l'Union; garantir la sécurité juridique pour faciliter les investissements et l'innovation dans l'IA; améliorer la gouvernance et l'application efficace de la législation en vigueur sur les droits de sûreté et les exigences applicables aux systèmes d'IA; faciliter le développement d'un marché unique pour des applications d'IA légales, sûres et fiables et empêcher la fragmentation du marché, c'est pourquoi le règlement a été choisi comme instrument juridique.

En ce qui concerne le contenu de la proposition, des règles harmonisées sont établies pour le développement, la commercialisation et l'utilisation des systèmes d'IA dans l'Union selon une approche proportionnée fondée sur les risques. Ces normes seront appliquées à travers un système de gouvernance au niveau des États membres, basé sur les structures existantes, et un mécanisme de coopération au niveau de l'Union avec la mise en place d'un Conseil européen de l'IA.

En outre, la promotion de l'innovation fondée sur l'IA est liée à la loi sur la gouvernance des données, à la directive sur les données ouvertes et à d'autres initiatives dans le cadre de la stratégie de l'UE pour les données, qui établiront des mécanismes et des services fiables pour la réutilisation, le partage et la mise en commun, essentiels pour le développement. des modèles d'IA basés sur des données de haute qualité.

La proposition commence par une série de clarifications interprétatives des concepts, parmi lesquelles celle relative à ce que nous pouvons comprendre par "Système d'IA», Qui le définit comme un software qui a été mis au point avec une ou plusieurs techniques (spécifiées dans son annexe I) et que "peut, pour un ensemble donné d'objectifs définis par l'homme, générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions qui influencent les environnements avec lesquels ils interagissent ».

Le texte interdit une série de pratiques telles que la commercialisation, la mise en service ou l'utilisation d'un système d'IA qui déploie des techniques subliminales capables de déformer le comportement d'une personne qui cause ou peut lui causer, à elle ou à un tiers, un préjudice physique ou psychologique; ou un système d'IA qui exploite l'une des vulnérabilités d'un groupe de personnes en raison de leur âge ou de leur handicap, afin de déformer le comportement d'une personne appartenant à ce groupe d'une manière qui cause ou peut causer, cette personne ou autre, physique ou un préjudice psychologique; ou des systèmes d'IA par les autorités publiques, ou en leur nom, pour l'évaluation ou la classification de la fiabilité des personnes physiques en fonction de leur comportement social ou personnel et qui, par conséquent, conduit à un traitement préjudiciable ou défavorable dans des contextes sociaux sans rapport avec les contextes dans lesquels les données ont été initialement générées ou collectées ou qu'un tel traitement est injustifié ou disproportionné par rapport à leur comportement social ou à leur gravité.

L’utilisation de systèmes d’identification biométrique à distance est également interdite. "temps réel«Dans des espaces accessibles au public à des fins d'application de la loi, à quelques exceptions près comme la recherche sélective de victimes potentielles spécifiques de la criminalité, y compris les enfants disparus, ou la prévention d'une attaque terroriste.

D'autre part, ce qui sera considéré comme des systèmes à haut risque est précisé et l'obligation de mettre en œuvre, de documenter et de maintenir une méthode de gestion des risques leur est établie. Cela consistera en un processus continu qui permettra d'identifier et d'analyser les risques connus et prévisibles, d'estimer et d'évaluer les risques pouvant survenir et d'adopter des mesures adéquates pour gérer ces risques.

La proposition n'oublie pas non plus la nécessité de garantir la transparence pour permettre aux utilisateurs d'interpréter les résultats du système et de l'utiliser de manière appropriée et exige que, pendant la période d'utilisation des systèmes d'IA à haut risque, ceux-ci puissent être supervisés par des personnes physiques, en afin de prévenir ou de minimiser les risques pour la santé, la sécurité ou les droits fondamentaux.

Il établit également des obligations pour les fournisseurs de systèmes d'IA à haut risque. Entre autres, pour réaliser une évaluation de la conformité, pour apposer ultérieurement le marquage CE ou pour s'assurer que les systèmes d'IA destinés à interagir avec des personnes physiques sont conçus et développés de manière à ce qu'ils soient informés qu'ils interagissent avec un système d'IA, à moins que cela ne ressorte clairement des circonstances et du contexte d'utilisation. Cette obligation ne s'appliquera pas aux systèmes d'IA autorisés par la loi à détecter, prévenir, enquêter et poursuivre les délits, à moins que ces systèmes ne soient mis à la disposition du public pour signaler un crime.

Quant aux utilisateurs, ils devraient utiliser le système conformément aux instructions d'utilisation, veiller à ce que les données d'entrée soient pertinentes à la lumière de la finalité prévue du système d'IA à haut risque et remplir leur obligation de mener une analyse d'impact des données. protection, entre autres.

D'autre part, la proposition de règlement oblige les États membres à désigner une autorité de notification, qui sera chargée d'établir et de mettre en œuvre les procédures nécessaires pour l'évaluation, la nomination et la notification des organismes d'évaluation de la conformité et votre suivi.

Les organismes notifiés seront ceux qui vérifient la conformité du système d'IA à haut risque, en étant indépendants du fournisseur, de tout autre opérateur ayant un intérêt économique, ainsi que de tout concurrent du fournisseur.

Enfin, pour une éventuelle violation du règlement, les États membres mettront en place un système de sanctions, qui doit être efficace, proportionné et dissuasif et prévoir des amendes administratives pouvant aller jusqu'à trente millions d'euros ou, si l'auteur de l'infraction est une entreprise, pouvant aller jusqu'à 6% de votre chiffre d'affaires mondial annuel total pour l'exercice précédent, selon le montant le plus élevé.

Bien que d'autres États aient opté pour une réglementation plus permissive, l'Union européenne a toujours été caractérisée par une focalisation sur les personnes et le respect des droits fondamentaux. Le cadre juridique a toujours été le bouclier qui empêche tout ce qui est techniquement viable d'avoir un ajustement sans réflexion éthique et avec toutes ses conséquences sur le marché, impactant directement nos sociétés et notre mode de vie. C'est pourquoi la proposition cherche à trouver un équilibre entre l'innovation et le respect des valeurs de l'Union.

 

Partagez: