Accord politique obtenu sur le règlement concernant l'intelligence artificielle : une première régulation européenne, mais ....

Voici quelques jours, la Commission a salué l'accord politique auquel le Parlement européen et le Conseil sont parvenus sur le règlement concernant l'intelligence artificielle (IA), proposé par la Commission en avril 2021.



L'approche européenne pour une IA digne de confiance

Apps, Cloud & DigitalF.F.F.Loi sur l’intelligence artificielle: accord sur des règles globales pour une IA digne de confiance - les clés pour s'y retrouver


Les nouvelles règles, fondées sur une définition de l'IA à l'épreuve du temps, seront applicables directement et à l'identique dans tous les États membres. Elles suivent une approche fondée sur les risques:

Risque minime: la grande majorité des systèmes d'IA relèvent de cette catégorie. Les applications à risque minime, telles que les systèmes de recommandation ou les filtres anti-spam reposant sur l'IA, seront exemptées de toute obligation car elles ne présentent qu'un risque minime ou nul pour les droits ou la sécurité des citoyens. Les entreprises pourront néanmoins, de manière volontaire, s'engager à adopter des codes de conduite supplémentaires pour ces systèmes d'IA.

Risque élevé: les systèmes d'IA considérés comme à haut risque devront respecter des exigences strictes, notamment en ce qui concerne les systèmes d'atténuation des risques; la qualité des ensembles de données utilisés, l'enregistrement des activités; la documentation détaillée; la fourniture d'informations claires à l'utilisateur; le contrôle humain ainsi qu'un niveau élevé de performances en matière de robustesse, d'exactitude et de cybersécurité. Des bacs à sable réglementaires faciliteront l'innovation responsable et la mise au point de systèmes d'IA conformes à ces exigences.

Parmi les systèmes d'IA à haut risque figurent, par exemple, certaines infrastructures critiques dans les secteurs de l'eau, du gaz et de l'électricité; les dispositifs médicaux; les systèmes qui permettent de déterminer l'accès à des établissements d'enseignement ou qui sont utilisés à des fins de recrutement, ou encore certains systèmes employés dans les domaines du maintien de l'ordre, du contrôle des frontières, de l'administration de la justice et des processus démocratiques. En outre, les systèmes biométriques d'identification, de catégorisation et de reconnaissance des émotions sont également considérés comme présentant un risque élevé.

Risque inacceptable: les systèmes d'IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre, tels que les jouets qui utilisent une assistance vocale incitant des mineurs à avoir un comportement dangereux, ou des systèmes qui permettent la notation sociale par les États ou les entreprises, et de certaines applications de police prédictive. En outre, certaines utilisations des systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d'identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public (à de rares exceptions près).

Obligations spécifiques en matière de transparence: lorsqu'ils utilisent des systèmes d'IA tels que des dialogueurs, les utilisateurs devraient avoir conscience qu'ils interagissent avec une machine. Les trucages vidéo ultra-réalistes et les autres contenus générés par IA devront être signalés comme tels, et les utilisateurs devront être informés de l'utilisation de systèmes biométriques de catégorisation ou de reconnaissance des émotions. En outre, les fournisseurs seront tenus de concevoir des systèmes de telle façon que les images, textes, contenus audio et vidéo à caractère synthétique fassent l'objet d'un marquage dans un format lisible par machine et que leur nature de contenus générés ou manipulés artificiellement soit détectable.

Amendes

Les entreprises non respectueuses des règles se verront infliger une amende. Le montant des amendes varierait en fonction des infractions commises: 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial (le montant le plus élevé étant retenu) pour les violations relatives aux applications d'IA interdites; 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial pour manquement aux autres obligations prévues et 7,5 millions d'euros ou 1,5 % du chiffre d'affaires annuel mondial pour fourniture d'informations inexactes. Des plafonds plus proportionnés sont prévus pour les amendes administratives qui seront infligées aux PME et aux start-ups en cas de non-respect du règlement concernant l'IA.

IA à usage général

Le règlement concernant l'IA introduit des règles spécifiques applicables aux modèles d'IA à usage général, qui garantiront la transparence tout au long de la chaîne de valeur. Pour les modèles très puissants susceptibles de présenter des risques systémiques, des obligations contraignantes supplémentaires seront imposées en ce qui concerne la gestion des risques et le suivi des incidents graves, la réalisation d'évaluations des modèles et de tests contradictoires (adversarial testing). Ces nouvelles obligations seront mises en œuvre au moyen de codes de bonnes pratiques élaborés par le secteur, la communauté scientifique, la société civile et d'autres parties prenantes, en collaboration avec la Commission.

En ce qui concerne la gouvernance, les autorités nationales compétentes de surveillance du marché superviseront la mise en œuvre des nouvelles règles à l'échelle nationale, tandis que la coordination au niveau européen sera assurée par un bureau européen de l'IA nouvellement créé au sein de la Commission européenne. Ce nouveau bureau de l'IA supervisera également la mise en œuvre des nouvelles règles relatives aux modèles d'IA à usage général et le contrôle de leur application. Avec les autorités nationales de surveillance du marché, le bureau de l'IA sera le premier organisme dans le monde à faire respecter des règles contraignantes en matière d'IA; de ce fait, il devrait devenir un élément de référence à l'échelle internationale. Pour les modèles à usage général, un groupe scientifique d'experts indépendants jouera un rôle central en émettant des signalements sur les risques systémiques et en contribuant à la classification et au test des modèles.

Prochaines étapes

L'accord politique, que le Parlement européen et le Conseil doivent à présent formellement approuver, entrera en vigueur 20 jours après sa publication au Journal officiel. Puis le règlement concernant l'IA entrera en application deux ans après son entrée en vigueur, à l'exception de certaines dispositions particulières: les interdictions s'appliqueront déjà après six mois, tandis que les règles relatives à l'IA à usage général s'appliqueront après 12 mois.

Afin de couvrir la période transitoire qui précède la date à partir de laquelle le règlement sera d'application générale, la Commission lancera un pacte sur l'IA. Celui-ci réunira des développeurs d'IA d'Europe et du monde entier qui s'engagent à mettre en œuvre, de manière volontaire, les obligations essentielles prévues par le règlement concernant l'IA avant les délais fixés par ce dernier.

Afin de promouvoir des règles relatives à une IA digne de confiance sur le plan international, l'Union européenne continuera d'œuvrer dans des enceintes telles que le G7, l'OCDE, le Conseil de l'Europe, le G20 et les Nations unies. Tout récemment, nous avons souscrit à l'accord auquel les dirigeants du G7 sont parvenus dans le cadre du processus d'Hiroshima pour l'intelligence artificielle et qui porte sur des principes directeurs internationaux et sur un code de conduite volontaire, applicables aux systèmes d'IA avancés.

Contexte

Depuis des années, la Commission facilite et favorise la coopération en matière d'IA dans toute l'Union afin de renforcer la compétitivité de cette dernière et de garantir la confiance fondée sur les valeurs de l'UE.

À la suite de la publication de la stratégie européenne en matière d'intelligence artificielle en 2018 et après une large consultation des parties prenantes, le groupe d'experts de haut niveau sur l'intelligence artificielle a élaboré des lignes directrices pour une IA digne de confiance en 2019, ainsi qu'une liste d'évaluation pour une IA digne de confiance en 2020. Parallèlement, le premier plan coordonné sur l'IA a été publié en décembre 2018 dans le cadre d'un engagement commun avec les États membres.

Le livre blanc de la Commission sur l'IA, publié en 2020, définissait une vision claire de l'IA en Europe: un écosystème d'excellence et de confiance, qui jette les bases de l'accord politique obtenu ce jour. La consultation publique relative au livre blanc sur l'IA a suscité de nombreuses contributions provenant du monde entier. Le livre blanc était accompagné d'un «rapport sur les conséquences de l'intelligence artificielle, de l'internet des objets et de la robotique sur la sécurité et la responsabilité», qui concluait que la législation actuelle sur la sécurité des produits présente un certain nombre de lacunes qu'il convient de combler, notamment dans la directive «Machines».

La recherche indépendante et fondée sur des données probantes, produite par le Centre commun de recherche (JRC), a joué un rôle fondamental pour ce qui est d'élaborer les politiques de l'UE en matière d'IA et de veiller à leur mise en œuvre effective. Par ses travaux de recherche et d'analyse rigoureux, le JRC a prêté son concours à la mise au point du règlement concernant l'IA, contribuant à la terminologie de l'IA, à la classification des risques et aux exigences techniques et participant à l'élaboration en cours de normes harmonisées.

Pour en savoir plus

Déclaration de la présidente von der Leyen relative à l'accord politique obtenu sur le règlement européen concernant l'IA

Les nouvelles règles encadrant l'intelligence artificielle – Questions et réponses (mise à jour disponible sous peu)

Les nouvelles règles encadrant l'intelligence artificielle – Page d'information

Processus d'Hiroshima pour l'intelligence artificielle: principes directeurs et code de conduite en matière d'intelligence artificielle

Plan coordonné sur l'intelligence artificielle

Règlement sur les machines et équipements

Règles de responsabilité dans le domaine de l'intelligence artificielle

Centre européen pour la transparence des algorithmes, Centre commun de recherche

Source : Commission Européenne, presse, décembre 2023

Mots clés

Articles recommandés

Une entreprise sur cinq prévoit de recruter face à la révolution numérique

COP 29 : les ambitions affichées et les pistes d’action de l’UE pour le climat !

Accord sur Vida : les trois piliers