Ce 11 mai 2023, les députés ont approuvé de nouvelles règles de transparence et de gestion des risques pour les systèmes d’intelligence artificielle, afin de garantir un développement éthique en Europe.
Jeudi, les commissions du marché intérieur et des libertés civiles ont adopté un projet de mandat de négociation sur les premières règles au monde sur l’intelligence artificielle, par 84 voix pour, 7 contre et 12 abstentions.
Avant que les négociations avec le Conseil sur la forme finale de la législation puissent commencer, ce projet de mandat de négociation doit être approuvé par l’ensemble du Parlement, lors d’un vote attendu au cours de la session du 12 au 15 juin.
Dans leurs amendements à la proposition de la Commission, les députés visent à garantir que les systèmes d’IA bénéficient d’un contrôle humain, qu’ils sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Ils souhaitent également disposer d’une définition uniforme de l’IA conçue pour être technologiquement neutre, afin de pouvoir l'appliquer aux systèmes d’IA d’aujourd’hui et de demain.
Après le vote, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré: "Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps. Il est essentiel de renforcer la confiance de nos citoyens dans le développement de l’IA, de définir une voie européenne face aux changements extraordinaires qui se produisent déjà, et de peser sur le débat politique consacré à l’IA au niveau mondial. Nous sommes convaincus que notre texte propose un équilibre entre la protection des droits fondamentaux et la nécessité d’assurer la sécurité juridique aux entreprises et de soutenir l’innovation en Europe".
Le co rapporteur Dragos Tudorache (Renew, Roumanie) a déclaré: "Compte tenu de la transformation profonde que l’intelligence artificielle entrainera dans nos sociétés et nos économies, la législation sur l’IA est très probablement la mesure législative la plus importante de ce mandat. C’est la première législation au monde de ce type, ce qui signifie que l’UE peut montrer la voie en orientant l’IA pour qu’elle soit centrée sur l’humain, sûre et digne de confiance. Nous avons œuvré pour soutenir l’innovation en matière d’IA en Europe et pour donner aux jeunes entreprises, aux PME et à l’industrie un espace leur permettant de croître et d’innover, tout en protégeant les droits fondamentaux, en renforçant la surveillance démocratique et en garantissant un système mature de gouvernance et de mise en œuvre de l’IA."
Une approche de l’IA fondée sur le risque - Pratiques interdites
Les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront strictement interdits, notamment les systèmes qui déploient des techniques subliminales ou délibérément manipulatrices, exploitent les vulnérabilités des personnes ou sont utilisés pour la notation sociale (consistant à établir une classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles).
Les députés ont modifié la liste de manière substantielle, afin d’y inclure des interdictions d’utilisations des systèmes d’IA intrusifs et discriminatoires, comme :
- les systèmes d’identification biométrique à distance "en temps réel" dans les espaces accessibles au public ;
- les systèmes d'identification biométrique à distance "a posteriori", à la seule exception des services répressifs pour la poursuite d'infractions graves et seulement après autorisation judiciaire ;
- les systèmes de catégorisation biométrique utilisant des données sensibles (par exemple, le genre, la race, le statut de citoyenneté, la religion, l’orientation politique) ;
- les systèmes de police prédictifs (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;
- les systèmes de reconnaissance des émotions (dans les domaines de l’application de la loi, de la gestion des frontières, sur le lieu de travail et dans les établissements d’enseignement) ;
- La récupération aveugle de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale (violation des droits humains et du droit à la vie privée).
L’intelligence artificielle à haut risque
Les députés ont élargi la classification de l’IA à haut risque pour y inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement. Les députés ont également ajouté à la liste à haut risque les systèmes d’IA utilisés pour influencer les électeurs lors de campagnes politiques, ainsi que ceux des systèmes de recommandations utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs dans le cadre de la législation sur les services numériques).
L’intelligence artificielle à usage général — mesures de transparence
Les députés ont inclus des obligations pour les fournisseurs de modèles de référence — un développement nouveau et en évolution rapide dans le domaine de l’IA — qui devront garantir un niveau élevé de protection des droits fondamentaux, de la santé et de la sécurité ainsi que de l’environnement, de la démocratie et de l’État de droit. Ils devront évaluer et limiter les risques, se conformer aux exigences en matière de conception, d’information et d’environnement, et s’enregistrer dans la bases de données de l’UE.
Les modèles génératifs, comme GPT, devront se conformer à des exigences de transparence supplémentaires, comme la communication du fait que le contenu a été généré par une IA, la conception du modèle pour prévenir la génération de contenu illégal et la publication de résumés de données protégées par le droit d’auteur, utilisées pour la formation des algorithmes.
Soutenir l’innovation et protéger les droits des citoyens
Pour soutenir l’innovation en matière d’IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d’IA fournis dans le cadre de licences open source. La nouvelle législation promeut les "bacs à sable réglementaires", des environnements contrôlés, établis par les autorités publiques, où les systèmes d’IA peuvent être testés avant leur déploiement.
Les députés souhaitent soutenir le droit des citoyens à porter plainte contre des systèmes d’IA et à recevoir des explications concernant les décisions fondées sur des systèmes d’IA à haut risque qui ont une incidence significative sur leurs droits. Les députés ont également réformé le rôle de l'Office européen de l'IA, qui sera chargé de contrôler la mise en œuvre du règlement sur l'intelligence artificelle.
Pour en savoir plus
Source: Parlement Européen, salle de presse, 11 mai 2023