L'utilisation de l'intelligence artificielle dans l'UE sera réglementée par la loi sur l'IA, la première loi globale sur l'IA au monde. Découvrez comment elle vous protégera.
Dans le cadre de sa stratégie numérique, l'UE souhaite réglementer l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante. L'IA peut apporter de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus propres, une fabrication plus efficace, ainsi qu'une énergie moins chère et plus durable
En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l'UE pour l'IA. Il propose que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA.
En savoir plus sur ce qu'est l'intelligence artificielle et comment elle est utilisée.
La priorité du Parlement est de veiller à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes.
Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l'IA qui pourrait être appliquée aux futurs systèmes d'IA.
En savoir plus sur les travaux du Parlement sur l'IA et sa vision de l'avenir de l'IA.
Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA. Bien que de nombreux systèmes d'IA présentent un risque minimal, ils doivent être évalués.
Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:
• la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants
• un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles
• une catégorisation et une identification biométriques des personnes
• des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale
Certaines exceptions peuvent être autorisées à des fins d'application de la loi. Les systèmes d'identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves, tandis que les systèmes d'identification biométrique à distance a posteriori, où l'identification a lieu après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l'approbation du tribunal.
Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.
1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.
2. Les systèmes d'IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :
• la gestion et l'exploitation des infrastructures critiques
• l'éducation et la formation professionnelle
• l'emploi, la gestion des travailleurs et l'accès au travail indépendant
• l'accès et la jouissance des services privés essentiels et des services et avantages publics
• les forces de l'ordre
• la gestion de la migration, de l'asile et du contrôle des frontières
• l'aide à l'interprétation juridique et à l'application de la loi.
Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.
L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :
• indiquer que le contenu a été généré par l'IA
• concevoir le modèle pour l'empêcher de générer du contenu illégal
• publier des résumés des données protégées par le droit d'auteur utilisées pour la formation
Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission.
Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l'IA).
Le 9 décembre 2023, le Parlement est parvenu à un accord provisoire avec le Conseil sur la loi sur l'IA. Le texte convenu devra maintenant être formellement adopté par le Parlement et le Conseil pour entrer en vigueur.
Les commissions du marché intérieur et celle des libertés civiles du Parlement voteront sur l’accord lors d’une prochaine réunion.
Dangers de la crypto-monnaie et avantages de la législation de l'UE
Lutte contre la cybercriminalité : les nouvelles lois européennes sur la cybersécurité expliquées
Stimuler le partage des données dans l'UE : quels sont les avantages ?
• Législations de l'UE sur les marchés numériques et sur les services numériques
Cinq façons dont le Parlement européen veut protéger les joueurs en ligne