Les députés européens ont trouvé un accord avec le Conseil sur un projet garantissant la sécurité de l'IA, le respect des droits fondamentaux, de la démocratie et le développement des entreprises.
La Commission salue l'accord politique obtenu sur le règlement concernant l'intelligence artificielle...
Vendredi, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle. Ce règlement vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale sont protégés contre les risques liés à l’IA, tout en encourageant l’innovation et en faisant de l’Europe un des leaders dans ce domaine. Les règles établissent des obligations relatives au niveau de risque et d’impact que l’IA peut générer.
Après l’accord, le corapporteur Brando Benifei (S&D, IT) a déclaré :
"Ce fut long et intense, mais l'effort en valait la peine. Grâce à la résilience du Parlement européen, la première législation horizontale au monde sur l'intelligence artificielle tiendra la promesse européenne, garantissant que les droits et les libertés sont au cœur du développement de cette technologie révolutionnaire. Sa mise en œuvre sera essentielle - le Parlement continuera à garder un œil attentif, afin de garantir le soutien aux nouvelles idées commerciales avec des 'bacs à sable', et des règles efficaces pour les modèles les plus puissants".
Dragos Tudorache (Renew, RO), corapporteur, a déclaré: "L'UE est la première au monde à mettre en place une réglementation solide sur l'IA, qui oriente son développement et son évolution dans une direction centrée sur l'humain. La loi sur l'IA fixe des règles pour les grands modèles d'IA puissants, en veillant à ce qu'ils ne présentent pas de risques systémiques pour l'Union, et offre des garanties solides à nos citoyens et à nos démocraties contre tout abus de technologie de la part des pouvoirs publics. Elle protège nos PME, renforce notre capacité d'innovation et de leadership dans le domaine de l'IA et protège les secteurs vulnérables de notre économie. L'Union européenne a apporté des contributions impressionnantes au monde ; la loi sur l'IA en est une autre qui aura un impact significatif sur notre avenir numérique."
Reconnaissant la menace potentielle pour les droits des citoyens et la démocratie que représentent certaines applications de l’IA, les colégislateurs sont convenus d’interdire :
- systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
- extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
- reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
- la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
- les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
- l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).
Les négociateurs sont convenus d'une série de garanties et d'exceptions limitées pour l'utilisation des systèmes d'identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d'une autorisation judiciaire préalable et pour des listes d'infractions strictement définies. Les systèmes d'identification biométrique "à distance" seront utilisés strictement dans le cadre de la recherche ciblée d'une personne condamnée ou soupçonnée d'avoir commis un crime grave.
Les systèmes d’identification biométrique "en temps réel" répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l'espace :
- recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle),
- la prévention d'une menace terroriste précise et actuelle, ou
- la localisation ou l'identification d'une personne soupçonnée d'avoir commis l'un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l'environnement).
Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.
Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.
Pour tenir compte du large éventail de tâches que les systèmes d’IA peuvent accomplir et de l’expansion rapide de leurs capacités, il a été convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.
Pour les systèmes d’IA à usage général présentant un risque systémique, les négociateurs du PE ont obtenu des obligations plus strictes. Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur efficacité énergétique. Les députés ont également insisté sur le fait que, jusqu'à ce que des normes européennes harmonisées soient publiées, les systèmes d’IA à usage général présentant un risque systémique peuvent s'appuyer sur des codes de pratique pour se conformer à la réglementation.
Les députés voulaient veiller à ce que les entreprises, en particulier les PME, puissent développer des solutions d’IA sans pression excessive de la part des géants de l’industrie qui contrôlent la chaîne de valeur. À cette fin, l’accord promeut des "bacs à sable réglementaires", et des environnements réels, mis en place par les autorités nationales pour développer et tester une IA innovante avant sa mise sur le marché.
Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.
Les députés Brando Benifei (S&D, Italie) et Dragos Tudorache (Renew, Roumanie), la secrétaire d'État à la numérisation et à l'intelligence artificielle Carme Artigas et le commissaire Thierry Breton ont participé à une conférence de presse commune à l'issue des négociations. La déclaration de M. Benifei est disponible ici et celle de M. Tudorache ici. D'autres extraits sont disponibles ici.
Le texte approuvé devra désormais être formellement adopté par le Parlement et le Conseil pour être intégré à la législation de l’UE. La commission du marché intérieur et des libertés civiles du Parlement votera sur l’accord lors d’une prochaine session.