Artificial Intelligence Act : voici ce que prépare l'Union européenne pour encadrer l'IA
Par Noémie LairLe Parlement européen examine en ce moment l'Artificial Intelligence Act, un projet de règlement pour encadrer l'usage et la commercialisation des intelligences artificielles. On fait le point sur ce que prévoit ce texte.
La proposition de règlement sur l'intelligence artificielle (IA) est examinée en ce moment par plusieurs comités au Parlement européen. Le texte, appelé Artificial Intelligence Act, devrait être voté en séance plénière "en avril au Parlement", deux ans après sa présentation par la Commission européenne, a indiqué dans "On n'arrête pas l'éco", sur France Inter, le commissaire européen au marché intérieur Thierry Breton, samedi.
Cette proposition de règlement a pour but d'encadrer l'usage et la commercialisation des IA, afin d'aider à l'innovation tout en garantissant la sécurité et les droits des utilisateurs. "Nous sommes le premier continent à avoir bâti une réglementation pour l'intelligence artificielle. C'est un travail extrêmement compliqué", a expliqué le commissaire européen. "Faire une loi en deux ans, c'est un exploit", a-t-il estimé. Un "exploit" qui arrive à point nommé, face au bouillonnement actuel autour des IA et aux interrogations que cela entraîne.
La proposition de règlement présente "quatre niveaux de protection : ce qui est interdit, ce qui est à haut risque, ce qui est à moyen risque et ce qui est autorisé", a précisé Thierry Breton. On vous les détaille.
Les systèmes qui seraient interdits
Le projet de règlement qui est en ligne, prévoit une catégorie pour tous les systèmes qui seraient interdits, jugés "inacceptables, c'est-à-dire ce qui est totalement contraires aux droits fondamentaux de l'Union européenne", explique la Docteure en droit Nathalie Devillier, experte pour la Commission européenne sur les problématiques de l'IA et fondatrice de l'entreprise de conseils Influence Cyber. Quatre systèmes principaux ont été déterminés :
L'exploitation des personnes vulnérables. Les systèmes d’IA qui exploitent "les éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes" seraient interdits. "Ça peut être le cas d'un Chatbot qui inciterait à faire n'importe quoi", indique Nathalie Devillier, fondatrice de Influence Cyber.
L'identification biométrique à distance. Ce type de système visant à utiliser "l'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives" serait interdit, sauf exception comme en cas d'autorisation exceptionnelle des autorités nationales de surveillance, les recherches d'enfants disparus ou encore la prévention d'une menace spécifique. En France par exemple, "il faudrait que ce soit encadré par le ministère de l'Intérieur et la Cnil", précise la spécialiste.
Les systèmes de "score social". Seront également interdites "la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques" et conduisant à un "traitement préjudiciable ou défavorable". Ce système de "note sociale" ou de "score social" renvoie au système de surveillance mis en place par le pouvoir chinois qui consistait en l'attribution d'une note aux citoyens en fonction de leur comportement.
Les techniques subliminales. Dans cette catégorie figurent les systèmes d'IA qui ont "recours à des techniques subliminales" qui pourraient entraîner un préjudice pour la santé physique ou psychologique des individus.
Les systèmes considérés "à haut risque"
La catégorie des systèmes dits "à haut risque" regroupe "tous les systèmes qui devront faire l'objet d'une évaluation des agences nationales avant leur mise en application", explique Nathalie Devillier. La Docteure en droit donne l'exemple d'une IA qui serait utilisée dans le domaine de la santé : "Une IA n'est pas infaillible. Par exemple, si je déménage, l'IA n'aura pas forcément toutes les données sur mes problèmes de santé, mes allergies, mon parcours de soin et pourrait commettre des erreurs."
Les systèmes "à moyen risque"
Cette catégorie regroupe les IA "avec obligation de transparence spécifique", indique Nathalie Devillier. "Elles ne sont pas dans la catégorie 'à haut risque' mais ça ne veut pas dire pour autant que vous pouvez faire ce que vous voulez", résume-t-elle. Là, il n'y aurait pas d'évaluation au préalable, "l'exploitant pourrait exploiter son système tout de suite mais il a une obligation de transparence, il doit expliquer comment le système fonctionne".
Les systèmes autorisés
Tous les objets connectés du quotidien, de la maison, comme les machines à laver, les frigos ou encore les montres connectés n'auraient pas d'autorisation ni de transparence spécifique à présenter.
Des garde-fous pour s'adapter à l'évolution des IA
Le secteur des IA évoluant très rapidement, la Commission compte "organiser tous les six mois une sorte de révision pour que le règlement ne soit pas obsolète", ajoute Nathalie Devillier. Les agences nationales, comme la Cnil, travailleront alors sur les ajustements à apporter.
La question d'un ajustement se pose d'ailleurs d'ores et déjà pour les Chatbots, qui à l'heure actuelle pourraient intégrer la catégorie des systèmes "avec obligation de transparence spécifique", ce qui interroge les spécialistes au vu du développement de robots conversationnels comme ChatGPT, potentiellement plus dangereux. L'Italie, par exemple, a décidé de bloquer ChatGPT, accusé de ne pas respecter la législation sur les données personnelles et de ne pas avoir de système pour vérifier l'âge des usagers mineurs.
Autre garde-fou : la mise en place d'un code couleur ou d'un symbole pour signaler aux utilisateurs qu'il s'agit d'une IA. "Tout ce qui sera généré par l'IA devra obligatoirement être signalé comme étant fait par une intelligence artificielle", a indiqué Thierry Breton sur franceinfo.
Références