EP klaar om te onderhandelen over eerste regels voor veilige en transparante AI

Woensdag 14 juni heeft het Europees Parlement zijn onderhandelingspositie over de wet op de artificiële intelligentie vastgesteld met 499 stemmen vóór, 28 tegen en bij 93 onthoudingen. Nu kunnen de onderhandelingen met de EU-lidstaten over de definitieve vorm van de wet van start gaan. De regels moeten verzekeren dat AI die in Europa wordt ontwikkeld en gebruikt, volledig in overeenstemming is met de rechten en waarden van de EU, waaronder menselijk toezicht, veiligheid, privacy, transparantie, non-discriminatie en sociaal en milieuwelzijn.



In het kort

> Volledig verbod op artificiële intelligentie (AI) voor biometrische surveillance, emotieherkenning en voorspellend politiewerk
> Vermelding dat content door AI is gegenereerd noodzakelijk bij generatieve AI-systemen zoals ChatGPT
> AI-systemen om kiezers bij verkiezingen te beïnvloeden beschouwd als systemen met een hoog risico

Na de stemming zei corapporteur Brando Benifei (S&D, Italië): “Alle ogen zijn op ons gericht. Terwijl Big Tech-bedrijven alarm slaan over hun eigen creaties, heeft Europa doorgepakt en heeft het een concreet antwoord op de risico’s die AI begint te vormen. We willen dat het positieve potentieel van AI voor creativiteit en productiviteit wordt benut, maar we staan achter onze positie en zullen vechten tegen de gevaren voor onze democratieën en vrijheden tijdens de onderhandelingen met de Raad”.

Co-rapporteur Dragos Tudorache (Renew, Roemenië) zei: “De AI-wet zal wereldwijd de toon zetten in de ontwikkeling en het beheer van AI. Het zal ervoor zorgen dat deze technologie, die onze samenleving radicaal zal veranderen door de enorme voordelen die zij kan bieden, evolueert en wordt gebruikt in overeenstemming met EU-waarden van democratie, grondrechten en de rechtsstaat."​

Verboden AI-praktijken

De regels zijn opgesteld volgens een op risico’s gebaseerde aanpak en bevatten verplichtingen voor aanbieders en zij die AI systemen gebruiken, afhankelijk van het risiconiveau dat de AI kan opleveren. AI-systemen met een onaanvaardbaar risico voor de veiligheid van mensen, zoals systemen die worden gebruikt voor sociale scores (het indelen van mensen op basis van hun sociale gedrag of persoonlijke kenmerken), zouden verboden zijn.

De EP-leden hebben de lijst uitgebreid met een verbod op inbreuk makend en discriminerend gebruik van AI, zoals:



  • biometrische systemen in openbare ruimten voor identificatie op afstand in real time;
  • biometrische systemen voor identificatie op afstand afteraf, met uitzondering van rechtshandhaving voor de vervolging van ernstige misdrijven en alleen na rechterlijke toestemming;
  • systemen voor biometrische categorisering waarbij gevoelige kenmerken worden gebruikt, zoals gender, ras, etniciteit, burgerschapsstatus, religie of politieke voorkeur;
  • systemen voor voorspellend politiewerk die zijn gebaseerd op profilering, locatie of crimineel gedrag in het verleden;
  • systemen voor emotieherkenning bij rechtshandhaving, bij grensbeheer, op de werkplek en in onderwijsinstellingen; en
  • het ondoelmatig scrapen van gezichtsopnamen van het internet of camerabeelden om databanken voor gezichtsherkenning te creëren, wat een schending van de mensenrechten en het recht op privacy zou zijn.

AI met een hoog risico

De EP-leden hebben ervoor gezorgd dat AI-systemen die ernstige schade toebrengen aan de volksgezondheid, veiligheid, grondrechten of het milieu, zullen worden ingedeeld als toepassingen met een hoog risico. Ook AI-systemen die worden gebruikt om kiezers en de uitkomst van verkiezingen te beïnvloeden en die in aanbevelingssystemen van socialemediaplatforms met meer dan 45 miljoen gebruikers worden toegepast, zijn toegevoegd aan deze lijst.

Verplichtingen voor AI voor algemene doeleinden

Aanbieders van basismodellen – een nieuwe en snelle ontwikkeling binnen de AI – moeten mogelijke risico’s (voor gezondheid, veiligheid, grondrechten, milieu, democratie en de rechtstaat) beoordelen en beperken. Ook moeten ze hun modellen registreren in de EU-databank voordat ze in de EU in de handel worden gebracht. Generatieve AI-systemen gebaseerd op dergelijke modellen, zoals ChatGPT, moeten voldoen aan transparantievereisten. Zo moet altijd worden vermeld dat de content door AI is gegenereerd (wat zal helpen zogenaamde 'deep-fakes' te onderscheiden) en zijn waarborgen tegen het genereren van illegale content nodig. Ook moeten gedetailleerde samenvattingen openbaar worden gemaakt van de auteursrechtelijk beschermde gegevens die worden gebruikt om deze systemen te trainen.

Innovatie ondersteunen en de rechten van burgers beschermen

De EP-leden hebben vrijstellingen toegevoegd voor onderzoeksactiviteiten en AI-componenten die worden verstrekt in het kader van opensourcelicenties. Dit moet AI-innovatie stimuleren en kmo’s ondersteunen. De nieuwe wet bevordert testomgevingen voor regelgeving onder levensechte omstandigheden, die door overheidsdiensten worden gecreëerd om de AI te testen voordat deze wordt ingezet.

Ten slotte willen de EP-leden het recht van burgers versterken om klachten over AI-systemen in te dienen. Daarnaast moeten burgers uitleg kunnen krijgen over beslissingen die zijn genomen op basis van AI-systemen met een hoog risico en die aanzienlijke gevolgen hebben voor hun grondrechten. De EP-leden hebben ook de rol van het EU-bureau voor AI herzien, dat toezicht moet houden op de uitvoering van de AI-regelgeving.


Meer informatie


Bron : Europese Parlement, pershoek, 14 juni 2023

Mots clés

Articles recommandés

Transparantie van multinationals: publieke land-per-land rapportage

Europese innovatiefonds 2023 : focus op de 85 nettonulprojecten geselecteerd

Strengere regels voor schenkingen in Vlaanderen vanaf 1 januari 2025