De wet voor artificiële intelligentie beantwoordt rechtstreeks aan de voorstellen van burgers van de Conferentie over de toekomst van Europa (COFE), met name op voorstel 12, lid 10, over het versterken van het concurrentievermogen van de EU in strategische sectoren, voorstel 33, lid 5, over een veilige en betrouwbare samenleving, met inbegrip van het tegengaan van desinformatie en het waarborgen van de uiteindelijke controle van de mens, voorstel 35 inzake het bevorderen van digitale innovatie, (3) het waarborgen van menselijk toezicht en het waarborgen van verantwoord en betrouwbaar gebruik van AI, het vaststellen van waarborgen en het waarborgen van transparantie, en voorstel 37 (3) over het gebruik van AI en digitale instrumenten om de toegang van burgers tot informatie, waaronder personen met een handicap, te verbeteren.
De verordening, waarover na onderhandelingen met de EU-landen overeenstemming is bereikt in december 2023, werd door de EP-leden goedgekeurd met 523 stemmen voor, 46 tegen en bij 49 onthoudingen.
De nieuwe regels hebben tot doel de grondrechten, de democratie, de rechtsstaat en de milieuduurzaamheid te beschermen tegen AI-systemen met een hoog risico. Tegelijkertijd moeten ze innovatie stimuleren en van Europa een leider maken op het gebied van AI. Met de verordening komen er verplichtingen voor AI-systemen op basis van de potentiële risico’s en gevolgen die ze met zich meebrengen.
Co-rapporteur
(S&D, IT) zei: “We hebben eindelijk ’s werelds eerste bindende regels voor kunstmatige intelligentie, om risico’s te verminderen, kansen te creëren, discriminatie te bestrijden en transparantie te brengen. Dankzij het Parlement zullen onaanvaardbare AI-praktijken in Europa worden verboden en zullen de rechten van werknemers en burgers worden beschermd. Een AI-bureau zal nu worden opgericht om bedrijven te ondersteunen bij het naleven van de regels voordat ze in werking treden. We hebben ervoor gezorgd dat mensen en Europese waarden centraal staan in de ontwikkeling van AI.”
Co-rapporteur Dragos Tudorache (Renew, RO) zei: “De EU heeft resultaten geleverd. We hebben het concept AI gekoppeld aan de fundamentele waarden die de basis vormen van onze samenlevingen. Er ligt echter veel werk dat verder gaat dan de AI-wet zelf. Door AI zullen we opnieuw na denken over het sociale contract dat centraal staat in onze democratieën, onze onderwijsmodellen, arbeidsmarkten en de manier waarop we oorlog voeren. De AI Act is een startpunt voor een nieuw bestuursmodel gebouwd rond technologie. We moeten ons nu richten op het in praktijk brengen van deze wet.”
Op grond van de nieuwe regels worden bepaalde AI-toepassingen verboden die de rechten van burgers in gevaar brengen. Denk daarbij aan systemen voor biometrische categorisering op basis van gevoelige kenmerken, of aan de ongerichte scraping van gezichtsafbeeldingen van het internet of CCTV-beelden om databanken voor gezichtsherkenning aan te leggen. Daarnaast komt er een verbod op emotieherkenning op het werk en op school. Hetzelfde geldt voor burgerscores, voorspellend politiewerk dat uitsluitend is bedoeld om mensen te profileren of hun kenmerken te beoordelen, en AI waarmee menselijk gedrag wordt gemanipuleerd of de kwetsbaarheden van mensen worden uitgebuit.
Het gebruik van systemen voor biometrische identificatie op afstand (RBI) door rechtshandhavingsinstanties wordt in beginsel verboden. Alleen in limitatief opgesomde en nauwkeurig omschreven omstandigheden kan hiervan worden afgeweken. RBI-systemen mogen alleen in real time worden ingezet als aan strikte waarborgen wordt voldaan. Zo mogen ze alleen tijdens een beperkte periode en binnen een beperkt geografisch gebied worden gebruikt en moet de rechter of de administratie vooraf specifieke toestemming hebben gegeven. Deze systemen kunnen bijvoorbeeld worden gebruikt om gericht te zoeken naar een vermiste persoon of om terroristische aanslagen te voorkomen. RBI-systemen die achteraf worden ingezet (“RBI achteraf”), worden beschouwd als systemen met een hoog risico. De toestemming van de rechter moet in zulke gevallen verband houden met een strafbaar feit.
Ook worden er duidelijke verplichtingen ingevoerd voor andere AI-systemen met een hoog risico. Deze kunnen namelijk aanzienlijke schade toebrengen aan de gezondheid, de veiligheid, de grondrechten, het milieu, de democratie en de rechtsstaat. AI-systemen met een hoog risico worden onder meer gebruikt op het gebied van kritieke infrastructuur, onderwijs en beroepsopleidingen, en werkgelegenheid. Ze worden ook ingezet in essentiële particuliere en openbare diensten, zoals de gezondheidszorg en het bankwezen. Verder worden ze toegepast op het gebied van rechtshandhaving, migratie en grensbeheer, justitie en democratische processen, bijvoorbeeld om verkiezingen te beïnvloeden. Deze systemen moeten transparant en nauwkeurig zijn, en de risico’s ervan moeten worden beoordeeld en beperkt. Bovendien moeten in het geval van systemen met een hoog risico logboeken worden bijgehouden en moet menselijk toezicht mogelijk zijn. Burgers hebben het recht om klachten over AI-systemen in te dienen en uitleg te krijgen over beslissingen die zijn genomen op basis van AI-systemen met een hoog risico en die gevolgen hebben voor hun rechten.
AI-systemen voor algemene doeleinden en de modellen waarop ze zijn gebaseerd, moeten voldoen aan bepaalde transparantievereisten, zoals voor de EU-wetgeving over auteursrecht en ze moeten informatie publiceren over de content gebruikt voor trainingen. Voor krachtigere modellen die systeemrisico’s met zich mee kunnen brengen komen er aanvullende vereisten. Denk daarbij aan de uitvoering van modelevaluaties, de beoordeling en beperking van systeemrisico’s, en de rapportage van incidenten.
Daarnaast moeten kunstmatige of gemanipuleerde afbeeldingen, audiobestanden en video-inhoud (“deepfakes”) duidelijk als zodanig worden aangeduid.
> Maatregelen om innovatie en kmo’s te ondersteunen
Testomgevingen voor regelgeving en tests onder reële omstandigheden moeten worden opgezet op nationaal niveau en toegankelijk worden gemaakt voor kmo’s en start-ups. Zo kunnen innovatieve AI-systemen worden ontwikkeld en getraind voordat ze in de handel
De verordening moet nog een laatste controle door juristen-vertalers ondergaan en zal naar verwachting vóór het einde van de zittingsperiode definitief worden vastgesteld, in overeenstemming met de zogenoemde rectificatieprocedure. De wet moet ook nog formeel worden aangenomen door de Raad.
De regels treden twintig dagen na de bekendmaking ervan in het Publicatieblad in werking. Ze zijn 24 maanden daarna volledig van toepassing, met uitzondering van: het verbod op bepaalde praktijken, dat zes maanden na de datum van inwerkingtreding zal ingaan; de gedragscodes (negen maanden na de inwerkingtreding); de regels voor AI-systemen voor algemene doeleinden, waaronder de governance van deze systemen (twaalf maanden); en de verplichtingen voor systemen met een hoog risico (36 maanden).
|