Ce 14 juin 2023, le Parlement européen a adopté sa position de négociation concernant la législation sur l’intelligence artificielle par 499 voix pour, 28 contre et 93 abstentions, avant les discussions avec les États membres sur la forme finale de la législation.
Les règles garantiraient que l’IA qui est développée et utilisée en Europe soit pleinement conforme aux droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental.
Les règles viseront à promouvoir l’adoption d’une l’IA axée sur le facteur humain, et à protéger la santé, la sécurité, les droits fondamentaux et la démocratie de ses effets néfastes.
> Le recours à l’intelligence artificielle (IA) est interdit pour la surveillance biométrique, la reconnaissance des émotions et la police prédictive
Le rapporteur Brando Benifei (S&D, Italie) a déclaré à la suite du vote: “Aujourd'hui, tous les regards sont tournés vers nous. Alors que les grandes entreprises technologiques tirent la sonnette d'alarme au sujet de leurs propres créations, l'Europe est allée de l'avant et a proposé une réponse concrète aux risques que l'IA commence à poser. Nous voulons exploiter le potentiel positif de l'IA en termes de créativité et de productivité, mais nous nous battrons aussi pour protéger notre position et contrer les dangers qui pèsent sur nos démocraties et nos libertés lors des négociations avec le Conseil”.Le corapporteur Dragoş Tudorache (Renew, Roumanie) a ajouté: “La loi sur l'IA donnera le ton au niveau mondial en matière de développement et de gouvernance de l'intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés grâce aux avantages considérables qu'elle peut offrir, évolue et soit utilisée dans le respect des valeurs européennes que sont la démocratie, les droits fondamentaux et l'État de droit".
Les règles suivent une approche fondée sur les risques et établissent des obligations pour les fournisseurs et ceux qui déploient des systèmes d'iIA en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront donc interdits, comme ceux qui sont utilisés pour la notation sociale (classifiant les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles) . Les députés ont élargi la liste pour inclure des interdictions des utilisations intrusives et discriminatoires de l’IA, telles que:
- les systèmes d’identification biométriques à distance en "temps réel" dans les espaces accessibles au public;
- les systèmes d'identification biométrique à distance "a posteriori", à la seule exception des forces de l'ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire;
- les systèmes d'identification biométrique utilisant des caractéristiques sensibles (par exemple, le genre, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique);
- les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé);
- les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d’enseignement;
- la saisie non ciblée d’images faciales provenant d’internet ou de séquences de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale (ce qui constitue une violation des droits humains et du droit au respect de la vie privée).
Les députés ont veillé à ce que la classification des applications à haut risque inclue désormais les systèmes d’IA qui portent gravement atteinte à la santé, à la sécurité et aux droits fondamentaux des personnes ou à l’environnement. Les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes d’IA utilisés dans les systèmes de recommandation exploités par les plateformes de médias sociaux (ayant plus de 45 millions d’utilisateurs) ont été ajoutés à la liste des systèmes à haut risque.
Obligations pour les systèmes d’IA à usage général
Les systèmes d’IA à usage général constituent un développement nouveau dans le domaine de l’IA, qui évolue rapidement. Les fournisseurs de tels systèmes devront évaluer et atténuer les risques potentiels (dans les domaines de la santé,de la sécurité, des droits fondamentaux, de l'envirennement, la démocratie et l'état de droit). Ils devront aussi enregistrer leurs modèles dans la base de données de l’UE avant leur mise en circulation sur le marché européen. Les systèmes d’IA générative basés sur de tels modèles, comme ChatGPT, devront respecter les exigences en matière de transparence (mentionner que le contenu est généré par l’IA, aider également à distinguer les fausses images des vraies) et offrir des garanties contre la génération de contenus illicites. Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics.
Soutenir l’innovation et protéger les droits des citoyens
Pour encourager l’innovation en matière d’IA et soutenir les PME, les députés ont ajouté des exceptions pour les activités de recherche et les composants d’IA fournis dans le cadre de licences libres. La nouvelle législation encourage ce que l’on appelle les "bacs à sable réglementaires pour l’IA", ou les environnements de mise en situation, mis en place par les autorités publiques pour tester l’IA avant son déploiement.
Enfin, les députés veulent renforcer le droit des citoyens à porter plainte contre les systèmes d’IA, et à recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque qui ont une incidence significative sur leurs droits fondamentaux. Les députés ont aussi révisé le rôle du Bureau européen de l’IA, qui serait chargé de surveiller la manière dont le règlement relatif à l’IA est mis en œuvre.
Vous lirez également avec intérêt les propositions des citoyens de la Conférence sur l'avenir de l'Europe sur la garantie d'un contrôle humain de tous les processus liés à l'IA (proposition 35(3)), sur la pleine utilisation du potentiel de l'IA digne de confiance (35(8)) et sur l'utilisation de l'IA et des technologies de traduction pour surmonter les barrières linguistiques (37(3)).