Tout le monde s'accorde à dire : l'intelligence artificielle ne manque pas de susciter de questions variées et pertinentes, tant pour ce qui est de ses tenants e aboutissants qu'en ce qui concerne les modalités de sa réglementation en cours !
La Commission y répond sans langue de bois, en apportant des réponses claires, qui constituent autant de balises de réflexion, posées dans le tour de la question.
Une piqure de rappel est toujours bonne à prendre !
L'intelligence artificielle est susceptible d'apporter à nos sociétés des bénéfices très divers, qui vont de l'amélioration des soins médicaux aux progrès dans le monde de l'éducation. Face à la rapidité des avancées technologiques dans le domaine de l'IA, les membres de l'UE ont décidé d'agir de concert pour exploiter les possibilités offertes.
Le règlement de l'UE concernant l'IA est le tout premier acte législatif au monde en matière d'IA. Il vise à parer aux risques pour la santé, la sécurité et les droits fondamentaux. Le règlement protège également la démocratie, l'état de droit et l'environnement.
Si la plupart des systèmes d'IA présentent des risques minimes ou nuls, certains d'entre eux sont toutefois à l'origine de risques qu'il s'agit de maîtriser pour éviter qu'ils n'aient des effets indésirables.
Par exemple, l'opacité de nombreux algorithmes peut être source d'incertitudes et empêcher la bonne application de la législation actuellement en vigueur en matière de sécurité et de droits fondamentaux. Dans ce contexte, afin d'assurer le bon fonctionnement du marché intérieur des systèmes d'IA, il était nécessaire de prendre des mesures législatives en mettant en balance les bénéfices et les risques.
Cela concerne les applications de l'AI telles que les systèmes d'identification biométrique ou l'aide à la prise de décisions portant sur des aspects personnels importants, par exemple dans les domaines du recrutement, de l'éducation, de la santé ou du maintien de l'ordre.
Avec les récents progrès dans le domaine de l'IA; les systèmes d'IA sont plus puissants que jamais. Les modèles d'IA dits «à usage général», qui sont intégrés dans de nombreux systèmes d'IA, ont pris une telle importance dans l'économie et la société qu'on ne peut pas s'abstenir de les réglementer. Compte tenu des risques systémiques potentiels, l'UE met en place des règles et une surveillance efficaces.
Les systèmes d'IA présentent un fort potentiel en matière d'avantages sociétaux, de croissance économique, de stimulation de l'innovation dans l'UE et de renforcement de la compétitivité de l'UE à l'échelle mondiale. Dans certains cas, cependant, les caractéristiques spécifiques de certains systèmes d'IA peuvent être à l'origine de nouveaux risques pour la sécurité des utilisateurs et les droits fondamentaux. Certains modèles d'AI très puissants dont l'utilisation est très répandue sont même susceptibles de présenter des risques systémiques
Ces risques peuvent créer de l'insécurité juridique pour les entreprises et potentiellement ralentir l'adoption des technologies de l'IA par les entreprises et les particuliers, du fait d'un manque de confiance. Or des réponses réglementaires disparates de la part des autorités nationales risqueraient de fragmenter le marché intérieur.
Le cadre juridique s'appliquera aussi bien aux acteurs du secteur public que du secteur privé, à l'intérieur comme à l'extérieur de l'UE, dès lors que le système d'IA est mis sur le marché dans l'Union ou que son utilisation a une incidence sur des personnes situées dans l'UE.
Cela peut concerner aussi bien les fournisseurs (par exemple, le développeur d'un outil d'analyse de CV) que les déployeurs de systèmes d'IA à haut risque (par exemple, une banque qui achète cet outil).Les importateurs de systèmes d'IA devront s'assurer que le fournisseur étranger a déjà suivi la procédure appropriée d'évaluation de la conformité, que le système d'IA porte la marque CE et qu'il est accompagné de la documentation technique exigée par le règlement.
En outre, certaines obligations sont prévues pour les fournisseurs de modèles d'IA à usage général, y compris les grands modèles d'IA générative.
Les fournisseurs de modèles libres et ouverts sont exemptés de la plupart de ces obligations. Cette exemption ne s'applique pas aux fournisseurs de modèles d'IA à usage général présentant des risques systémiques.
Les obligations ne s'appliquent pas non plus aux activités de recherche, de développement et de prototypage précédant la mise sur le marché, ni aux systèmes d'IA qui sont exclusivement destinés à des fins militaires, de défense ou de sécurité nationale, quel que soit le type d'entité exerçant ces activités.
La Commission propose une approche fondée sur les risques comportant quatre niveaux en fonction du risque que présentent les systèmes d'AI, ainsi qu'une identification des risques propre aux modèles à usage général:
En outre, le règlement concernant l'IA tient compte des risques systémiques qui pourraient être dus à des modèles d'IA à usage général, notamment de grands modèles d'IA générative. Ces derniers ont des applications très diverses et constituent de plus en plus souvent la base de nombreux systèmes d'IA dans l'UE. Certains de ces modèles pourraient comporter des risques systémiques s'ils sont très puissants ou si leur utilisation est très répandue. Par exemple, des modèles puissants pourraient provoquer des accidents graves ou être utilisés à mauvais escient pour lancer des cyberattaques de grande ampleur. La propagation, par un modèle, de biais préjudiciables dans de nombreuses applications pourrait avoir des conséquences négatives pour de nombreuses personnes.
Le règlement établit, outre une définition claire du «risque élevé», une méthode solide permettant de recenser les systèmes d'IA à haut risque pour l'application du cadre juridique. L'objectif est que les entreprises et les autres opérateurs jouissent d'une sécurité juridique.
La classification des risques repose sur la finalité assignée au système d'IA, conformément à la législation existante de l'UE en matière de sécurité des produits. Cela signifie que cette classification dépend de la fonction exécutée par le système d'IA, ainsi que du but spécifique dans lequel le système est utilisé et des modalités de cette utilisation.
Une liste des cas d'utilisation considérés comme à haut risque figure en annexe du règlement. La Commission assurera la mise à jour de cette liste et en garantira la pertinence. Les systèmes figurant sur la liste des risques élevés, qui exécutent des tâches procédurales strictement délimitées, améliorent le résultat d'activités humaines antérieures, n'influencent pas les décisions humaines ou n'accomplissent que des tâches purement préparatoires ne sont pas considérés comme présentant un risque élevé. Toutefois, tout système d'IA effectuant un profilage de personnes physiques est toujours considéré comme à haut risque.
Avant qu'un fournisseur puisse mettre un système d'IA à haut risque sur le marché de l'UE ou le mettre en service d'une autre manière, ce système doit faire l'objet d'une évaluation de la conformité. Le fournisseur pourra ainsi démontrer que son système est conforme aux exigences obligatoires relatives à une IA digne de confiance (par exemple, la qualité des données, la documentation et la traçabilité, la transparence, le contrôle humain, l'exactitude, la cybersécurité et la robustesse). Cette évaluation doit être répétée si le système ou sa finalité sont substantiellement modifiés.
Les systèmes d'IA constituant des composants de sécurité de produits couverts par une législation sectorielle de l'UE seront toujours considérés comme à haut risque dès lors qu'ils font l'objet d'une évaluation de la conformité réalisée par un tiers en vertu de cette législation sectorielle. Pour les systèmes biométriques également, une évaluation de la conformité par un tiers est toujours requise
Les fournisseurs de systèmes d'IA à haut risque devront également mettre en œuvre des systèmes de gestion de la qualité et des risques afin de garantir qu'ils respectent les nouvelles exigences et de réduire au minimum les risques pour les utilisateurs et les personnes concernées, même après qu'un produit a été mis sur le marché.
Les systèmes d'IA à haut risque déployés par les pouvoirs publics ou par des entités agissant en leur nom devront être enregistrés dans une base de données publique de l'UE, sauf si ces systèmes sont utilisés à des fins répressives et de gestion de la migration. Dans ce dernier cas, ils devront être enregistrés dans une partie non publique de la base de données qui ne sera accessible qu'aux autorités de surveillance concernées.
Les autorités de surveillance du marché contribueront à la surveillance des produits après leur mise sur le marché au moyen d'audits et en offrant aux fournisseurs la possibilité de signaler les incidents graves ou les manquements aux obligations en matière de droits fondamentaux dont ils viendraient à avoir connaissance. Toute autorité de surveillance du marché peut, pour des raisons exceptionnelles, autoriser la mise sur le marché d'un système d'IA à haut risque.
Ces exigences permettront aux autorités nationales de disposer, en cas d'infraction, des informations nécessaires pour déterminer si le système d'IA a été utilisé dans le respect de la législation.
Les modèles d'IA à usage général, notamment les grands modèles d'IA générative ont des applications très diverses. Certains modèles spécifiques peuvent être intégrés dans de nombreux systèmes d'IA.
Il est important qu'un fournisseur souhaitant utiliser un modèle d'IA à usage général pour construire un système dispose de toutes les informations nécessaires pour s'assurer que son système est sûr et respecte les obligations prévues par le règlement.
Par conséquent, le règlement oblige les fournisseurs de ces modèles à mettre certaines informations à la disposition des fournisseurs en aval. Ces obligations de transparence permettent de mieux comprendre ces modèles.
Les fournisseurs de modèles doivent, de surcroît, appliquer des procédures permettant de garantir qu'ils respectent la législation sur les droits d'auteur lorsqu'ils entraînent leurs modèles.
En outre, certains de ces modèles pourraient comporter des risques systémiques en raison de leur puissance ou de la large utilisation qui en est faite.
Actuellement, on considère que les modèles d'IA à usage général qui ont été entraînés avec une puissance de calcul totale supérieure à 10^25 FLOPS présentent des risques systémiques, car plus la quantité de calcul nécessaire à l'entraînement est élevée, plus les modèles tendent à être puissants. Le Bureau de l'IA (établi au sein de la Commission) peut mettre à jour ce seuil en fonction des progrès technologiques et peut en outre, dans des cas particuliers, désigner d'autres modèles comme présentant des risques systémiques, en se fondant sur d'autres critères (par exemple le nombre d'utilisateurs ou le degré d'autonomie du modèle).
Les fournisseurs de modèles présentant des risques systémiques sont par conséquent tenus d'évaluer et d'atténuer les risques, de signaler les incidents graves, de procéder à des essais et à des évaluations de modèles conformément à l'état de la technique, de garantir la cybersécurité et de fournir des informations sur la consommation d'énergie de leurs modèles.
Pour ce faire, il leur est demandé de collaborer avec le Bureau européen de l'IA afin d'élaborer des codes de conduite constituant le principal outil de définition des règles en coopération avec d'autres experts. Un comité scientifique jouera un rôle essentiel dans la surveillance des modèles d'IA à usage général. Un comité scientifique jouera un rôle essentiel dans la surveillance des modèles d'IA à usage général.
Ce seuil correspond aux modèles d'IA à usage général les plus avancés actuellement, à savoir GPT-4 d'OpenAI et probablement Gemini de Google DeepMind.
On ne dispose pas encore d'une compréhension suffisante des capacités des modèles situés au-dessus de ce seuil. Ils pourraient présenter des risques systémiques et il est par conséquent raisonnable de soumettre leurs fournisseurs à des obligations supplémentaires.
La quantité de FLOPS est un premier indicateur des capacités du modèle, et le seuil exact de FLOPS peut être augmenté ou abaissé par le Bureau européen de l'IA, par exemple en fonction des progrès accomplis dans la mesure objective des capacités des modèles et des évolutions de la puissance de calcul nécessaire pour atteindre un niveau de performance donné.
Le règlement concernant l'IA peut être modifié pour mettre à jour le seuil de FLOPS (au moyen d'un acte délégué).
Le règlement introduit différents niveaux de risques et fournit des définitions claires, y compris pour l'IA à usage général.
Il fixe des exigences axées sur les résultats pour les systèmes d'IA à haut risque, mais en ce qui concerne les solutions techniques et la mise en œuvre concrètes, il s'en remet principalement à des normes dictées par l'industrie, ce qui garantira au cadre juridique la souplesse nécessaire pour s'adapter aux différents cas d'utilisation, ainsi qu'aux évolutions futures afin de permettre de nouvelles solutions technologiques.
En outre, le règlement sur l'IA peut être modifié par des actes délégués et des actes d'exécution, notamment pour mettre à jour le seuil de FLOPS (acte délégué), pour ajouter des critères permettant de classer certains modèles d'IA à usage général comme présentant des risques systémiques (acte délégué), et pour modifier les modalités de mise en place de bacs à sable réglementaires et des éléments du plan d'essais en conditions réelles (actes d'exécution).
L'utilisation à des fins répressives de l'identification biométrique à distance en temps réel dans des espaces accessibles au public (c'est-à-dire la reconnaissance faciale par des caméras de télévision en circuit fermé) est interdite, sauf dans les cas suivants:
Les 16 infractions de la liste sont:
L'identification biométrique à distance en temps réel par les services répressifs sera subordonnée à une autorisation préalable octroyée par une autorité judiciaire ou une autorité administrative indépendante dont la décision est contraignante. En cas d'urgence, cette autorisation pourra être accordée dans les 24 heures; si l'autorisation est refusée, toutes les données et les résultats devront être supprimés.
Une analyse d'impact sur les droits fondamentaux devra être réalisée au préalable et être notifiée à l'autorité de surveillance du marché compétente et à l'autorité chargée de la protection des données. En cas d'urgence, le système peut commencer à être utilisé sans enregistrement.
L'utilisation de systèmes d'IA pour l'identification biométrique à distance a posteriori (identification de personnes dans du contenu vidéo récolté auparavant) de personnes faisant l'objet d'une enquête nécessite de recevoir l'autorisation préalable d'une autorité judiciaire ou d'une autorité administrative indépendante, et d'être notifiée aux autorités chargées de la protection des données et de la surveillance du marché.
L'identification biométrique peut prendre différentes formes. Elle peut être utilisée pour l'authentification des utilisateurs, par exemple pour déverrouiller un smartphone, ou dans le cadre de la vérification/l'authentification aux points de passage frontaliers pour vérifier que l'identité d'une personne correspond à celle indiquée sur ses documents de voyage (comparaison «un à un»).
L'identification biométrique est également susceptible d'être utilisée à distance pour identifier une personne dans une foule, par exemple en comparant son image avec celles contenues dans une base de données (comparaison «un à plusieurs»).
L'exactitude des résultats des systèmes de reconnaissance faciale peut varier considérablement en fonction d'un large éventail de facteurs, tels que la qualité de la caméra, la lumière, la distance, la base de données, l'algorithme ainsi que l'appartenance ethnique, l'âge ou le sexe de l'individu. Il en va de même pour la reconnaissance de la voix ou de la démarche et les autres systèmes biométriques. Le taux de fausses acceptations des systèmes hautement avancés est en diminution constante.
Si un taux de 99 % de résultats justes peut globalement sembler satisfaisant, il n'en présente pas moins un risque élevé s'il conduit à soupçonner un innocent. Même un taux d'erreur de 0,1 % est important s'il concerne des dizaines de milliers de personnes.
Il existe déjà une solide protection des droits fondamentaux et contre les discriminations au niveau de l'UE et des États membres, mais la complexité et l'opacité de certaines applications d'IA («boîtes noires») posent un problème.
Une approche de l'IA centrée sur l'humain implique de garantir que les applications d'IA respectent la législation relative aux droits fondamentaux. La sujétion de l'utilisation de systèmes d'IA à haut risque à des exigences en matière de responsabilité et de transparence, conjuguée à un renforcement des moyens de contrôle du respect de ces exigences, garantira la prise en compte de l'obligation de conformité à la législation dès le stade du développement.
En cas d'infraction, les autorités nationales auront accès, en vertu de ces exigences, aux informations nécessaires pour enquêter et vérifier si l'IA a été utilisée dans le respect du droit de l'UE.
En outre, le règlement sur l'IA exige que les déployeurs qui sont des organismes de droit public ou des opérateurs privés fournissant des services publics et les opérateurs fournissant des systèmes à haut risque procèdent à une analyse d'impact relative aux droits fondamentaux.
L'utilisation d'un système d'IA à haut risque peut avoir un impact sur les droits fondamentaux. Par conséquent, les déployeurs qui sont des organismes de droit public ou des opérateurs privés fournissant des services publics et les opérateurs fournissant des systèmes à haut risque devront procéder à une analyse d'impact relative aux droits fondamentaux et en notifier les résultats à l'autorité nationale.
Cette analyse consistera à décrire dans quels processus du déployeur le système d'IA à haut risque sera utilisé, pendant combien de temps et à quelle fréquence il est prévu de l'utiliser, quelles catégories de personnes physiques et de groupes de personnes sont susceptibles d'être affectées par son utilisation dans ce contexte spécifique, quels risques spécifiques de préjudice encourent les catégories de personnes ou groupes de personnes concernées; elle décrira également la mise en œuvre des mesures de contrôle par des êtres humains et les mesures qui seront prises en cas de réalisation des risques.
Si le fournisseur s'acquitte déjà de cette obligation dans le cadre de l'analyse d'impact relative à la protection des données, l'analyse d'impact relative aux droits fondamentaux sera réalisée conjointement avec celle-ci.
Il est très important de veiller à ce que les systèmes d'IA ne créent pas ni ne reproduisent de biais. Au contraire, lorsqu'ils sont correctement conçus et utilisés, les systèmes d'IA peuvent contribuer à réduire les discriminations structurelles et les biais existants et conduire ainsi à des décisions plus équitables et non discriminatoires (par exemple en matière de recrutement).
Tel est l'objectif des nouvelles exigences contraignantes qui s'appliqueront à tous les systèmes d'IA à haut risque. Il faut que les systèmes d'IA soient techniquementrobustes pour garantir que la technologie est adaptée à sa finalité et que les résultats faussement positifs ou négatifs n'affectent pas de manière disproportionnée les groupes protégés (par exemple, en raison de leur race ou de leur origine ethnique, de leur sexe ou de leur âge).
Il faudra également que les systèmes d'IA à haut risque soient entraînés et testés sur la base d'ensembles de données suffisamment représentatifs, afin de réduire au minimum le risque de biais inéquitables dans la conception même du modèle et de permettre un traitement adéquat de ce risque par des mesures de détection et de correction et autres mesures d'atténuation.
Il faut aussi qu'ils soient traçables et auditables, ce qui implique qu'une documentation appropriée doit être conservée, y compris les données utilisées pour entraîner l'algorithme, essentielles pour toute enquête a posteriori.
Un système de vérification de la conformité avant et après mise sur le marché devra garantir une surveillance régulière des systèmes d'IA et un traitement rapide des risques potentiels.
Une fois adopté par le Parlement européen et le Conseil, le règlement sur l'IA entrera en vigueur vingt jours après sa publication au Journal officiel. Après son entrée en vigueur, il entrera progressivement en application et sera pleinement applicable au bout de 24 mois, selon le calendrier suivant:
Les États membres jouent un rôle clé dans l'application et le contrôle du respect de ce règlement. À cet égard, chaque État membre devrait désigner une ou plusieurs autorités nationales compétentes pour surveiller l'application et la mise en œuvre des règles, ainsi que pour mener des activités de surveillance du marché.
Pour permettre un gain d'efficience et garantir l'existence d'un point de contact officiel avec le public et les homologues, chaque État membre devrait désigner une autorité nationale de surveillance, qui sera également chargée de le représenter au sein du Comité européen de l'intelligence artificielle.
Une expertise technique supplémentaire sera fournie par un forum consultatif, représentant une sélection équilibrée de parties prenantes, dont l'industrie, les jeunes pousses, les PME, la société civile et le monde universitaire.
Par ailleurs, la Commission créera, en son sein, un nouveau Bureau européen de l'intelligence artificielle, qui surveillera les modèles d'IA à usage général, coopérera avec le Comité européen de l'intelligence artificielle et sera épaulé par un groupe scientifique d'experts indépendants.
Le Comité européen de l'intelligence artificielle sera constitué de représentants de haut niveau des autorités nationales de surveillance compétentes, du Contrôleur européen de la protection des données et de la Commission. Son rôle sera de faire en sorte que la mise en œuvre du nouveau règlement sur l'IA soit aisée, effective et harmonisée.
Le Comité formulera des recommandations et des avis à l'intention de la Commission concernant les systèmes d'IA à haut risque et d'autres aspects pertinents pour la mise en œuvre effective et uniforme des nouvelles règles. Enfin, il apportera également son soutien aux activités de normalisation dans ce domaine.
Le Bureau de l'IA a pour mission de développer l'expertise et les capacités de l'Union dans le domaine de l'intelligence artificielle et de contribuer à la mise en œuvre de la législation de l'Union en matière d'intelligence artificielle au sein d'une structure centralisée.
En particulier, le bureau de l'IA sera chargé de faire appliquer et de superviser les nouvelles règles que doivent respecter les modèles d'IA à usage général. Il s'agira notamment d'élaborer des codes de bonnes pratiques précisant les règles à suivre, de jouer un rôle dans la classification des modèles présentant des risques systémiques et de contrôler la mise en œuvre effective et le respect du règlement. Cette dernière tâche sera facilitée par le pouvoir d'exiger des documents, de réaliser des évaluations de modèles, d'enquêter en cas d'alerte et de demander aux fournisseurs de prendre des mesures correctives.
Le Bureau de l'IA assurera la coordination en ce qui concerne la politique en matière d'intelligence artificielle et la collaboration entre les institutions, organes et agences de l'Union concernés, ainsi qu'avec les experts et les parties prenantes. En particulier, il assurera un lien étroit avec la communauté scientifique afin de soutenir l'application de la législation, servira de point de référence international pour les experts indépendants et les organisations d'experts et facilitera les échanges et la collaboration avec les institutions similaires dans le monde entier.
Le Comité de l'IA a un rôle étendu consistant à fournir des conseils et une assistance à la Commission et aux États membres.
Le Bureau de l'IA sera créé au sein de la Commission et sera chargé de développer l'expertise et les capacités de l'Union dans le domaine de l'intelligence artificielle et de contribuer à la mise en œuvre de la législation de l'Union en matière d'intelligence artificielle. En particulier, le bureau de l'IA sera chargé de faire appliquer et de superviser les nouvelles règles que doivent respecter les modèles d'IA à usage général.
Le forum consultatif sera constitué d'une sélection équilibrée de parties prenantes, dont l'industrie, les jeunes pousses, les PME, la société civile et le monde universitaire. Il sera institué pour conseiller et fournir une expertise technique au Comité de l'IA et à la Commission, ses membres étant désignés par le Comité parmi les parties prenantes.
Le groupe scientifique d'experts indépendants soutiendra la mise en œuvre et l'application du règlement en ce qui concerne les modèles et systèmes d'IA à usage général, et les États membres auront accès à ce pool d'experts.
En cas de mise sur le marché ou d'utilisation de systèmes d'IA qui ne respectent pas les exigences du règlement, les États membres devront prévoir des sanctions effectives, proportionnées et dissuasives, notamment des amendes administratives, s'il y a infraction, et les communiquer à la Commission.
Le règlement fixe des seuils qui devront être pris en compte:
Afin d'harmoniser les règles et pratiques nationales en matière de fixation des amendes administratives, la Commission compte s'appuyer sur l'avis du Comité de l'IA pour élaborer des lignes directrices.
Les institutions, organes et agences de l'Union européenne devant montrer l'exemple, ils devront également se conformer aux règles et pourront faire l'objet de sanctions; le Contrôleur européen de la protection des données aura le pouvoir de leur infliger des amendes.
Le règlement sur l'IA prévoit le droit d'introduire une réclamation auprès d'une autorité nationale. Sur cette base, les autorités nationales peuvent lancer des activités de surveillance du marché, conformément aux procédures prévues par les règlements relatifs à la surveillance du marché.
En outre, la proposition de directive sur la responsabilité en matière d'IA vise à fournir aux personnes demandant réparation des dommages causés par des systèmes d'IA à haut risque des moyens efficaces d'identifier les responsables potentiels et d'obtenir des preuves pertinentes pour une demande d'indemnisation. À cette fin, la proposition de directive prévoit la divulgation d'éléments de preuve concernant certains systèmes d'IA à haut risque soupçonnés d'avoir causé des dommages.
De plus, la directive révisée sur la responsabilité du fait des produits garantira la possibilité d'une indemnisation en cas de décès, de lésions corporelles ou de dommages matériels causés par un produit défectueux dans l'Union et précisera que les systèmes d'IA, et les produits qui intègrent des systèmes d'IA, sont également couverts par les règles existantes.
Les fournisseurs d'applications qui ne sont pas à haut risque pourront garantir que leur système d'IA est digne de confiance en élaborant leur propre code de conduite volontaire, ou en adhérant au code de conduite d'une association représentative.
Pour certains systèmes d'IA, ces codes de conduite volontaires s'appliqueront parallèlement aux obligations de transparence.
La Commission encouragera les associations du secteur et autres organisations représentatives à en adopter.
La Commission invite les fournisseurs de modèles d'IA à usage général et d'autres experts à travailler conjointement sur un code de bonnes pratiques.
Une fois élaborés et approuvés à cette fin, ces codes peuvent être utilisés par les fournisseurs de modèles d'IA à usage général pour apporter la preuve du respect des obligations pertinentes découlant du règlement sur l'IA, à l'instar de ce qui est fait pour le RGPD.
L'élaboration de ces codes est particulièrement importante pour préciser les règles applicables aux fournisseurs de modèles d'IA à usage général présentant des risques systémiques, afin de garantir des règles efficaces et à l'épreuve du temps en matière d'évaluation et d'atténuation des risques, ainsi que concernant d'autres obligations.
Le règlement sur l'IA contient-il des dispositions relatives à la protection de l'environnement et à la durabilité?
L'objectif de la proposition de règlement sur l'IA est de parer aux risques pour la sécurité et les droits fondamentaux, y compris le droit fondamental à un niveau élevé de protection de l'environnement. L'environnement est également l'un des intérêts juridiques explicitement mentionnés et protégés.
La Commission sera chargée de demander aux organisations européennes de normalisation une publication en matière de normalisation relative aux processus d'établissement de rapports et de documentation afin d'améliorer la performance des systèmes d'IA en matière de ressources, par exemple concernant la réduction de la consommation d'énergie et d'autres ressources par le système d'IA à haut risque tout au long de son cycle de vie, et relative au développement économe en énergie de modèles d'IA à usage général.
De surcroît, la Commission sera chargée de présenter, au plus tard deux ans après la date d'application du règlement et tous les quatre ans par la suite, un rapport sur l'état d'avancement de l'élaboration de publications en matière de normalisation relatives au développement économe en énergie de modèles d'IA à usage général, et à évaluer la nécessité de nouvelles mesures ou actions, y compris de mesures ou actions contraignantes.
En outre, les fournisseurs de modèles d'IA à usage général, qui sont entraînés sur de grandes quantités de données et ont donc tendance à consommer beaucoup d'énergie, seront tenus de divulguer leur consommation d'énergie.
La Commission sera chargée d'élaborer une méthode appropriée pour cette évaluation.
S'agissant des modèles d'IA à usage général présentant des risques systémiques, il faudra en outre en évaluer l'efficacité énergétique.
En quoi les nouvelles règles soutiendront-elles l'innovation?
Le cadre réglementaire peut favoriser l'adoption de l'IA de deux manières. D'une part, si la confiance des utilisateurs s'accroît, la demande d'IA des entreprises et des pouvoirs publics pour leur usage propre augmentera aussi. D'autre part, l'harmonisation des règles et le renforcement de la sécurité juridique permettront aux fournisseurs d'IA d'accéder à des marchés plus grands, en proposant des produits que les utilisateurs et les consommateurs apprécient et achètent. Les règles ne s'appliqueront que dans la mesure où elles sont strictement nécessaires et en imposant le moins de contraintes possible aux opérateurs économiques, grâce à une structure de gouvernance légère.
Le règlement sur l'IA permet en outre la création de bacs à sable réglementaires et la réalisation d'essais en conditions réelles, qui offrent un environnement contrôlé pour tester des technologies innovantes pendant une période limitée, favorisant ainsi l'innovation par les entreprises, les PME et les jeunes pousses conformément au règlement sur l'IA. Ces initiatives, combinées à d'autres mesures telles que les nouveaux réseaux de centres d'excellence en matière d'IA et le partenariat public-privé sur l'intelligence artificielle, les données et la robotique, ainsi que l'accès à des pôles européens d'innovation numérique et à des installations de test et d'expérimentation, contribueront à créer les conditions-cadres dont les entreprises ont besoin pour développer et déployer l'IA.
Les essais en conditions réelles des systèmes d'IA à haut risque peuvent être menés pendant une durée maximale de 6 mois (qui peut être prolongée de 6 mois supplémentaires). Avant les essais, un plan doit être établi et soumis à l'autorité de surveillance du marché, qui doit approuver ce plan ainsi que les conditions d'essai spécifiques, ceux-ci étant par défaut approuvés de manière tacite si aucune réponse n'a été donnée dans un délai de 30 jours. Les essais peuvent faire l'objet d'inspections inopinées de la part de l'autorité.
Les essais en conditions réelles ne peuvent être réalisés que moyennant des garanties spécifiques: par exemple, les utilisateurs des systèmes testés en conditions réelles doivent donner leur consentement éclairé, les essais ne doivent pas avoir d'effet négatif sur ces utilisateurs, les résultats doivent être réversibles ou doivent pouvoir être ignorés, et les données des utilisateurs doivent être supprimées après l'achèvement du test. Une protection particulière sera accordée aux groupes vulnérables, c'est-à-dire aux personnes âgées ou souffrant d'un handicap physique ou mental.
L'approche de l'UE en matière d'intelligence artificielle repose sur l'excellence et la confiance; elle vise à stimuler la recherche et les capacités industrielles tout en garantissant la sécurité et la protection des droits fondamentaux. Les citoyens et les entreprises doivent pouvoir bénéficier des avantages de l'IA tout en se sentant en sécurité et protégés. La stratégie européenne en matière d'IA vise à faire de l'UE un pôle mondial de l'IA et à faire en sorte que l'IA soit centrée sur l'humain et digne de confiance. En avril 2021, la Commission a présenté son train de mesures sur l'IA, qui comprenait notamment: (1) un réexamen du plan coordonné dans le domaine de l'intelligence artificielle et (2) sa proposition de règlement établissant des règles harmonisées en matière d'IA.
Avec le plan coordonné dans le domaine de l'IA, c'est une stratégie globale visant à promouvoir le développement et l'adoption de l'IA en Europe que la Commission européenne a adoptée. Cette stratégie met l'accent sur la création de conditions propices au développement et à l'adoption de l'IA; sur la nécessité de faire en sorte que l'UE soit l'endroit où l'excellence prévaut, du laboratoire au marché; sur le renforcement de la fiabilité de l'IA; et sur la mise en place d'un leadership stratégique dans les secteurs à fort impact.
La Commission entend tirer parti des activités des États membres en coordonnant et en harmonisant leurs efforts, afin de favoriser une approche cohérente et synergique du développement et de l'adoption de l'IA. La Commission a également mis en place la plateforme de l'alliance européenne pour l'IA, qui réunit des parties prenantes du monde universitaire, de l'industrie et de la société civile afin d'échanger connaissances et idées sur les politiques en matière d'IA.
En outre, le plan coordonné prévoit plusieurs mesures visant à exploiter les ressources que constituent les données, à promouvoir les capacités de calcul essentielles, à accroître les capacités de recherche, à soutenir un réseau européen d'installations de test et d'expérimentation, et à soutenir les PME par l'intermédiaire de pôles européens d'innovation numérique (PEIN).
Le règlement sur l'IA et le plan coordonné dans le domaine de l'IA s'inscrivent dans le cadre des efforts déployés par l'Union européenne pour être au premier rang mondial de la promotion à l'échelle internationale d'une IA digne de confiance. L'IA est un domaine qui a acquis une importance stratégique, au carrefour des enjeux géopolitiques, commerciaux et sécuritaires.
Vu l'utilité et le potentiel de l'IA, les pays du monde entier choisissent de l'utiliser comme moyen de manifester leur volonté d'avancement technologique. La réglementation de l'IA n'en est qu'à ses débuts, et l'UE prendra des mesures pour promouvoir la définition de normes mondiales en la matière, en étroite collaboration avec ses partenaires internationaux conformément au système multilatéral fondé sur des règles et aux valeurs qu'elle défend. L'UE entend renforcer les partenariats, coalitions et alliances avec ses partenaires (comme le Japon, les États-Unis l'Inde, le Canada, la Corée du Sud, Singapour, ou la région de l'Amérique latine et des Caraïbes) ainsi qu'avec les organisations multilatérales (par exemple, l'OCDE, le G7 et le G20) et régionales (par exemple, le Conseil de l'Europe).
*Communiqué mis à jour le 14.12.2023