L’IA sous contrôle : législation européenne en application ce 1er août

La législation européenne sur l'intelligence artificielle (législation sur l'IA), premier règlement global au monde sur l'intelligence artificielle, entre en vigueur. La législation sur l'IA est conçue pour faire en sorte que l'IA développée et utilisée dans l'UE soit digne de confiance, avec des garanties pour protéger les droits fondamentaux des citoyens. Le règlement vise à établir un marché intérieur harmonisé de l'IA dans l'UE, en encourageant l'adoption de cette technologie et en créant un environnement favorable à l'innovation et à l'investissement.



Contexte

Le 9 décembre 2023, la Commission s'est félicitée de l'accord politique sur la législation sur l'IA. Le 24 janvier 2024, la Commission a lancé un ensemble de mesures visant à soutenir les jeunes pousses et les PME européennes dans le développement d'une IA digne de confiance. Le 29 mai 2024, la Commission a dévoilé le bureau de l'IA. Le 9 juillet 2024, le règlement modifié de l'entreprise commune EuroHPC est entré en vigueur, permettant ainsi la création d'usines d'IA. Cela permet d'utiliser des supercalculateurs d'IA dédiés à la formation de modèles d'IA à usage général (GPAI).

La poursuite de la recherche indépendante et fondée sur des données probantes, réalisée par le Centre commun de recherche (JRC), a joué un rôle fondamental dans l'élaboration des politiques de l'UE en matière d'IA et dans la garantie de leur mise en œuvre effective.

Une échelle de risques

La législation sur l'IA introduit une définition prospective de l'IA, fondée sur une approche fondée sur la sécurité des produits et les risques dans l'UE:

  • Risque minimal: La plupart des systèmes d'IA, tels que les systèmes de recommandation fondés sur l'IA et les filtres de spam, relèvent de cette catégorie. Ces systèmes ne sont soumis à aucune obligation en vertu de la législation sur l'IA en raison de leur risque minime pour les droits et la sécurité des citoyens. Les entreprises peuvent adopter volontairement des codes de conduite supplémentaires.
  • Risque spécifique en matière de transparence: Les systèmes d'IA tels que les dialogueurs doivent indiquer clairement aux utilisateurs qu'ils interagissent avec une machine. Certains contenus générés par l'IA, y compris les trucages vidéo profonds, doivent être étiquetés en tant que tels, et les utilisateurs doivent être informés de l'utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. En outre, les fournisseurs devront concevoir des systèmes de manière à ce que les contenus audio, vidéo, texte et images synthétiques soient marqués dans un format lisible par machine et détectables comme générés ou manipulés artificiellement.
  • Risque élevé: Les systèmes d'IA identifiés comme étant à haut risque seront tenus de se conformer à des exigences strictes, notamment des systèmes d'atténuation des risques, une qualité élevée des ensembles de données, un enregistrement des activités, une documentation détaillée, des informations claires sur les utilisateurs, un contrôle humain et un niveau élevé de robustesse, d'exactitude et de cybersécurité. Les bacs à sable réglementaires faciliteront l'innovation responsable et le développement de systèmes d'IA conformes. Ces systèmes d'IA à haut risque comprennent, par exemple, les systèmes d'IA utilisés pour le recrutement ou pour évaluer si quelqu'un a le droit d'obtenir un prêt ou d'exploiter des robots autonomes.
  • Risque inacceptable: Les systèmes d'IA considérés comme une menace manifeste pour les droits fondamentaux des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour contourner la volonté libre des utilisateurs, tels que les jouets utilisant une assistance vocale encourageant les comportements dangereux des mineurs, les systèmes qui permettent la «notation sociale» par les gouvernements ou les entreprises, et certaines applications de police prédictive. En outre, certaines utilisations de systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d'identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public (à quelques exceptions près).

Application et contrôle du respect des règles en matière d'IA

Afin de compléter ce système, la législation sur l'IA introduit également des règles pour les modèles d'IA dits à usage général, qui sont des modèles d'IA hautement capables et conçus pour accomplir un large éventail de tâches telles que la génération de textes de type humain. Les modèles d'IA à usage général sont de plus en plus utilisés comme composants d'applications d'IA. La législation sur l'IA garantira la transparence tout au long de la chaîne de valeur et remédiera aux risques systémiques éventuels des modèles les plus efficaces.

Les États membres ont jusqu'au 2 août 2025 pour désigner des autorités nationales compétentes, qui superviseront l'application des règles relatives aux systèmes d'IA et exerceront des activités de surveillance du marché. Le bureau de l'IA de la Commission sera le principal organe de mise en œuvre de la législation sur l'IA au niveau de l'UE, ainsi que le contrôle des règles applicables aux modèles d'IA à usage général.

Trois organes consultatifs soutiendront la mise en œuvre des règles. Le Comité européen de l' intelligence artificielle garantira une application uniforme de la législation sur l'IA dans tous les États membres de l'UE et servira de principal organe de coopération entre la Commission et les États membres. Un groupe scientifique composé d'experts indépendants fournira des conseils techniques et des contributions sur l'application de la législation. En particulier, ce panel peut adresser des alertes au bureau de l'IA concernant les risques associés aux modèles d'IA à usage général. Le bureau de l'IA peut également recevoir des orientations d' un forum consultatif, composé d'un ensemble diversifié de parties prenantes.

Les entreprises qui ne respectent pas les règles se verront infliger une amende. Les amendes pourraient aller jusqu'à 7 % du chiffre d'affaires annuel mondial pour les violations des applications d'IA interdites, jusqu'à 3 % pour les violations d'autres obligations et jusqu'à 1,5 % pour la fourniture d'informations inexactes.

Prochaines étapes

La majorité des règles de la législation sur l'IA commencera à s'appliquer le 2 août 2026. Toutefois, les interdictions des systèmes d'IA considérés comme présentant un risque inacceptable s'appliqueront déjà après six mois, tandis que les règles applicables aux modèles d'IA dits à usage général s'appliqueront après 12 mois.

Pour combler la période transitoire précédant la mise en œuvre intégrale, la Commission a lancé le pacte sur l'IA. Cette initiative invite les développeurs d'IA à adopter volontairement les obligations essentielles de la législation sur l'IA avant les délais légaux.

La Commission élabore également des lignes directrices visant à définir et à préciser comment la législation sur l'IA devrait être mise en œuvre et à faciliter les instruments de corégulation tels que les normes et les codes de bonnes pratiques. La Commission a lancé un appel à manifestation d'intérêt pour participer à l'élaboration du premier code de bonnes pratiques général en matière d'IA, ainsi qu'une consultation multipartite donnant la possibilité à toutes les parties prenantes d'avoir leur mot à dire sur le premier code de bonnes pratiques au titre de la législation sur l'IA.

Pour plus d'informations

Législation européenne sur l'intelligence artificielle

Nouvelles règles relatives à l'intelligence artificielle — Questions et réponses

Bureau européen de l'IA | Façonner l'avenir numérique de l'Europe





Cette page a été traduite par traduction automatique. Revenir à la langue d’origine. La Commission européenne n’assume aucune responsabilité pour la qualité et l’exactitude de cette traduction automatique.

Mots clés