Woensdag 14 juni heeft het Europees Parlement zijn onderhandelingspositie over de wet op de artificiële intelligentie vastgesteld met 499 stemmen vóór, 28 tegen en bij 93 onthoudingen. Nu kunnen de onderhandelingen met de EU-lidstaten over de definitieve vorm van de wet van start gaan. De regels moeten verzekeren dat AI die in Europa wordt ontwikkeld en gebruikt, volledig in overeenstemming is met de rechten en waarden van de EU, waaronder menselijk toezicht, veiligheid, privacy, transparantie, non-discriminatie en sociaal en milieuwelzijn.
Na de stemming zei corapporteur Brando Benifei (S&D, Italië): “Alle ogen zijn op ons gericht. Terwijl Big Tech-bedrijven alarm slaan over hun eigen creaties, heeft Europa doorgepakt en heeft het een concreet antwoord op de risico’s die AI begint te vormen. We willen dat het positieve potentieel van AI voor creativiteit en productiviteit wordt benut, maar we staan achter onze positie en zullen vechten tegen de gevaren voor onze democratieën en vrijheden tijdens de onderhandelingen met de Raad”.
Co-rapporteur Dragos Tudorache (Renew, Roemenië) zei: “De AI-wet zal wereldwijd de toon zetten in de ontwikkeling en het beheer van AI. Het zal ervoor zorgen dat deze technologie, die onze samenleving radicaal zal veranderen door de enorme voordelen die zij kan bieden, evolueert en wordt gebruikt in overeenstemming met EU-waarden van democratie, grondrechten en de rechtsstaat."
Verboden AI-praktijken
De regels zijn opgesteld volgens een op risico’s gebaseerde aanpak en bevatten verplichtingen voor aanbieders en zij die AI systemen gebruiken, afhankelijk van het risiconiveau dat de AI kan opleveren. AI-systemen met een onaanvaardbaar risico voor de veiligheid van mensen, zoals systemen die worden gebruikt voor sociale scores (het indelen van mensen op basis van hun sociale gedrag of persoonlijke kenmerken), zouden verboden zijn.
De EP-leden hebben de lijst uitgebreid met een verbod op inbreuk makend en discriminerend gebruik van AI, zoals:
AI met een hoog risico
De EP-leden hebben ervoor gezorgd dat AI-systemen die ernstige schade toebrengen aan de volksgezondheid, veiligheid, grondrechten of het milieu, zullen worden ingedeeld als toepassingen met een hoog risico. Ook AI-systemen die worden gebruikt om kiezers en de uitkomst van verkiezingen te beïnvloeden en die in aanbevelingssystemen van socialemediaplatforms met meer dan 45 miljoen gebruikers worden toegepast, zijn toegevoegd aan deze lijst.
Verplichtingen voor AI voor algemene doeleinden
Aanbieders van basismodellen – een nieuwe en snelle ontwikkeling binnen de AI – moeten mogelijke risico’s (voor gezondheid, veiligheid, grondrechten, milieu, democratie en de rechtstaat) beoordelen en beperken. Ook moeten ze hun modellen registreren in de EU-databank voordat ze in de EU in de handel worden gebracht. Generatieve AI-systemen gebaseerd op dergelijke modellen, zoals ChatGPT, moeten voldoen aan transparantievereisten. Zo moet altijd worden vermeld dat de content door AI is gegenereerd (wat zal helpen zogenaamde 'deep-fakes' te onderscheiden) en zijn waarborgen tegen het genereren van illegale content nodig. Ook moeten gedetailleerde samenvattingen openbaar worden gemaakt van de auteursrechtelijk beschermde gegevens die worden gebruikt om deze systemen te trainen.
Innovatie ondersteunen en de rechten van burgers beschermen
De EP-leden hebben vrijstellingen toegevoegd voor onderzoeksactiviteiten en AI-componenten die worden verstrekt in het kader van opensourcelicenties. Dit moet AI-innovatie stimuleren en kmo’s ondersteunen. De nieuwe wet bevordert testomgevingen voor regelgeving onder levensechte omstandigheden, die door overheidsdiensten worden gecreëerd om de AI te testen voordat deze wordt ingezet.
Ten slotte willen de EP-leden het recht van burgers versterken om klachten over AI-systemen in te dienen. Daarnaast moeten burgers uitleg kunnen krijgen over beslissingen die zijn genomen op basis van AI-systemen met een hoog risico en die aanzienlijke gevolgen hebben voor hun grondrechten. De EP-leden hebben ook de rol van het EU-bureau voor AI herzien, dat toezicht moet houden op de uitvoering van de AI-regelgeving.