Politiek akkoord over verordening artificiële intelligentie : ja, maar ...

De Commissie verwelkomt het politieke akkoord dat het Europees Parlement en de Raad hebben bereikt over de verordening artificiële intelligentie (AI-verordening), die de Commissie in april 2021 heeft voorgesteld.


De Europese benadering van betrouwbare AI

De nieuwe regels zullen in alle lidstaten rechtstreeks op dezelfde wijze worden toegepast op basis van een toekomstbestendige definitie van AI. Daarbij wordt een risicogebaseerde aanpak gevolgd:

Minimaal risico: De overgrote meerderheid van AI-systemen valt in deze categorie. Toepassingen met een minimaal risico – zoals op AI gebaseerde aanbevelingssystemen of spamfilters – krijgen een “laissez-passer” en zijn niet onderworpen aan verplichtingen, omdat ze geen enkel of slechts een uiterst klein risico vormen voor de rechten of veiligheid van de burger. Bedrijven kunnen zich wel vrijwillig binden aan aanvullende gedragscodes voor deze AI-systemen.

Hoog risico: AI-systemen die als AI-systemen met een hoog risico worden aangemerkt, moeten voldoen aan strenge eisen, waaronder risicobeperkende systemen, kwalitatief hoogwaardige gegevensreeksen, registratie van activiteiten, gedetailleerde documentatie, duidelijke gebruikersinformatie, menselijk toezicht en sterke robuustheid, nauwkeurigheid en cyberbeveiliging. Testomgevingen voor regelgeving zullen verantwoorde innovatie en de ontwikkeling van conforme AI-systemen vergemakkelijken.

Bij AI-systemen met een hoog risico gaat het bijvoorbeeld om bepaalde kritieke infrastructuur, zoals infrastructuur op het gebied van water, gas en elektriciteit, medische hulpmiddelen, systemen om de toegang tot onderwijsinstellingen te bepalen of personen aan te werven, en bepaalde systemen die worden ingezet op het gebied van rechtshandhaving, grenscontrole, rechtsbedeling en democratische processen. Biometrische systemen voor identificatie, categorisering en emotieherkenning worden ook als AI-systemen met een hoog risico beschouwd.

Onaanvaardbaar risico: AI-systemen die een duidelijke bedreiging vormen voor de grondrechten van de bevolking, worden verboden. Het gaat om AI-systemen of -toepassingen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen, zoals speelgoed met spraakondersteuning dat minderjarigen aanspoort tot gevaarlijk gedrag, systemen die “sociale scoring” door overheden of bedrijven mogelijk maken, en bepaalde toepassingen op het gebied van voorspellend politiewerk. Sommige toepassingen van biometrische systemen worden verboden, zoals systemen voor emotieherkenning op de werkplek en sommige systemen voor de categorisering van mensen of biometrische realtime-identificatie op afstand voor rechtshandhavingsdoeleinden (met enkele kleine uitzonderingen).

Specifiek transparantierisico: Bij AI-systemen als chatbots moeten gebruikers zich ervan bewust zijn dat zij met een machine communiceren. Deepfakes en andere door AI gegenereerde inhoud moeten als zodanig worden aangemerkt en gebruikers moeten het weten als er biometrische systemen voor categorisering of emotieherkenning worden ingezet. Bovendien moeten aanbieders systemen zodanig ontwerpen dat synthetische inhoud – audio, video, tekst en afbeeldingen – in een machineleesbaar formaat wordt gemarkeerd en detecteerbaar is als artificieel gegenereerd of gemanipuleerd.

Geldboeten

Bedrijven die de regels niet naleven, krijgen een boete. Deze boetes lopen uiteen van 35 miljoen euro of (als dat hoger is) 7% van de wereldwijde jaaromzet bij de inzet van verboden AI-toepassingen tot 15 miljoen euro of 3% bij andere overtredingen en 7,5 miljoen euro of 1,5% voor het verstrekken van onjuiste informatie. Voor kmo's en start-ups die de AI-verordening overtreden, gelden verhoudingswijs lagere boetes.

AI voor algemeen gebruik

Met de AI-verordening worden speciale regels voor AI-modellen voor algemene doeleinden ingevoerd die zorgen voor transparantie in de hele waardeketen. Voor zeer krachtige modellen die systeemrisico's kunnen inhouden, komen er aanvullende bindende verplichtingen op het gebied van risicobeheer en de monitoring van ernstige incidenten, modelevaluaties en tests die moeten bewijzen dat de modellen veilig zijn. Deze nieuwe verplichtingen worden ingevoerd via gedragscodes die de Commissie samen met de industrie, de wetenschappelijke gemeenschap, het maatschappelijk middenveld en andere belanghebbenden heeft ontwikkeld.

Wat governance betreft, zullen de nationale bevoegde markttoezichtautoriteiten toezien op de uitvoering van de nieuwe regels op nationaal niveau en zal een nieuw op te richten Europees AI-bureau in de Europese Commissie zorgen voor coördinatie op Europees niveau. Het nieuwe AI-bureau zal ook toezicht houden op de uitvoering en handhaving van de nieuwe regels voor AI-modellen voor algemene doeleinden. Het AI-bureau wordt de eerste organisatie ter wereld die naast de nationale markttoezichtautoriteiten bindende AI-regels handhaaft. Daarom wordt het naar verwachting een internationaal ijkpunt. Voor modellen voor algemene doeleinden zal een wetenschappelijk panel van onafhankelijke deskundigen een centrale rol spelen bij het geven van waarschuwingen over systeemrisico's en bij het classificeren en testen van de modellen.

Volgende stappen

Het politiek akkoord moet nu formeel worden goedgekeurd door het Europees Parlement en de Raad en treedt twintig dagen na de bekendmaking ervan in het Publicatieblad in werking. Twee jaar na de inwerkingtreding ervan wordt de AI-verordening van toepassing, met uitzondering van een aantal bepalingen: de verbodsbepalingen zijn al na zes maanden van toepassing en de AI-regels voor algemene doeleinden na twaalf maanden.

Voor de overgangsperiode - de periode vóór het algemeen van toepassing worden van de verordening - zal de Commissie een AI-pact lanceren. Dit pact verenigt AI-ontwikkelaars uit Europa en de rest van de wereld die vrijwillig toezeggen om vóór de wettelijke termijn uitvoering te geven aan de belangrijkste verplichtingen van de AI-verordening.

Om de regels voor betrouwbare AI internationaal te bevorderen, zal de Europese Unie deze blijven promoten in fora als de G7, de OESO, de Raad van Europa, de G20 en de VN. Nog onlangs steunden we het akkoord van de G7-leiders over internationale leidende richtsnoeren en een vrijwillige gedragscode voor geavanceerde AI-systemen in het kader van het AI-proces van Hiroshima.

Achtergrond

De Commissie bevordert en versterkt al jaren de samenwerking op het gebied van AI in de EU om het concurrentievermogen te verbeteren en vertrouwen op basis van de waarden van de EU te waarborgen.

Na de publicatie van de Europese AI-strategie in 2018 en de uitgebreide raadpleging van belanghebbenden heeft de deskundigengroep op hoog niveau inzake artificiële intelligentie (HLEG) in 2019 richtsnoeren voor betrouwbare AI en in 2020 een beoordelingslijst voor betrouwbare AI opgesteld. Tegelijk is in december 2018 het eerste gecoördineerde AI-plan voorgesteld als gezamenlijke verbintenis van de EU en de lidstaten.

Het AI-witboek van de Commissie uit 2020 schetst een duidelijke visie op AI in Europa: een ecosysteem van excellentie en vertrouwen, dat het pad heeft geëffend voor het politieke akkoord van vandaag. De openbare raadpleging over het AI-witboek oogstte wereldwijd veel respons. Het witboek ging vergezeld van een verslag over de gevolgen van artificiële intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid, waarin werd geconcludeerd dat de huidige wetgeving voor productveiligheid een aantal lacunes bevat die moeten worden aangepakt – met name in de machinerichtlijn.

Onafhankelijk, empirisch onderbouwd onderzoek van het Gemeenschappelijk Centrum voor Onderzoek (JRC) is van fundamenteel belang geweest voor de vormgeving van het AI-beleid van de EU en de doeltreffende uitvoering ervan. Met diepgaand onderzoek en een grondige analyse heeft het JRC meegeholpen bij de ontwikkeling van de AI-verordening, en wel op het gebied van AI-terminologie, de classificatie van risico's, technische vereisten en de permanente ontwikkeling van geharmoniseerde normen.

Meer informatie

Verklaring van voorzitter Von der Leyen over het politieke akkoord over de AI-verordening van de EU

Nieuwe regels inzake artificiële intelligentie – Vragen en antwoorden (binnenkort bijgewerkt)

Nieuwe regels inzake artificiële intelligentie – Feiten

AI-proces van Hiroshima: leidende beginselen en gedragscode inzake artificiële intelligentie

Gecoördineerd plan inzake artificiële intelligentie

Verordening betreffende machineproducten

Aansprakelijkheidsregels inzake artificiële intelligentie

Europees Centrum voor algoritmische transparantie, Gemeenschappelijk Centrum voor Onderzoek

Bron : Europese Commissie, december 2023

Mots clés

Articles recommandés