Artificiële intelligentie : de antwoorden op de vragen die u zich terecht stelt ...

Iedereen is het erover eens dat de artificiële intelligentie een groot aantal relevante vragen in de praktijk oproept.

Welke risico's worden met de nieuwe AI-regels aangepakt? Hoe weet ik of een AI-systeem een hoog risico inhoudt? Hoe reguleert de AI-wet biometrische identificatie? Wanneer is de AI-verordening volledig van toepassing? Wat kunnen personen doen die worden getroffen door een schending van een regel? ...

De antwoorden hieronder voorgesteld door de Commissie zijn duidelijk en helder en bieden een kader voor reflectie over de betrokken kwesties.

Waarom moeten we het gebruik van artificiële intelligentie reguleren?

Artificiële intelligentie (AI) kan onze samenleving heel wat voordelen opleveren, van betere gezondheidszorg tot beter onderwijs. In het licht van de snelle technologische ontwikkeling van AI moest de EU stappen zetten om die kansen te benutten.

De AI-verordening van de EU is de eerste uitgebreide AI-wetgeving ter wereld, en is bedoeld om het hoofd te bieden aan risico's voor rechten inzake gezondheid en veiligheid en de grondrechten. De verordening beschermt ook de democratie, de rechtsstaat en het milieu.

Hoewel de meeste AI-systemen weinig tot geen risico opleveren, moeten de risico's van sommige AI-systemen worden aangepakt om ongewenste resultaten te voorkomen.

Zo kan de ondoorzichtigheid van veel algoritmen tot onzekerheid leiden en een obstakel vormen voor de effectieve handhaving van de bestaande wetgeving inzake veiligheid en grondrechten. Om die uitdagingen aan te pakken was wetgeving nodig, die de goede werking van de AI-markt waarborgt middels een adequate aanpak van zowel de baten als de risico's.

Het gaat om toepassingen zoals biometrische identificatiesystemen of beslissingen door AI over belangrijke persoonlijke belangen op het gebied van bijvoorbeeld aanwerving, onderwijs, gezondheidszorg of rechtshandhaving.

Recente ontwikkelingen op het gebied van AI hebben geleid tot een nog krachtigere generatieve AI. Zogenaamde “AI-modellen voor algemene doeleinden” die in tal van AI-systemen worden geïntegreerd, worden te belangrijk voor de economie en de samenleving om ze niet te reguleren. In het licht van mogelijke systeemrisico's voert de EU doeltreffende regels en toezicht in.

Welke risico's worden met de nieuwe AI-regels aangepakt?

De invoering van AI-systemen zou in sterke mate kunnen leiden tot maatschappelijke voordelen en economische groei en tevens innovatie in de EU en het wereldwijde concurrentievermogen van de EU kunnen verbeteren. In bepaalde gevallen kunnen de specifieke kenmerken van bepaalde AI-systemen echter nieuwe risico's met zich meebrengen in verband met de veiligheid en de grondrechten van de gebruiker. Sommige krachtige AI-modellen die op grote schaal worden gebruikt, kunnen zelfs systeemrisico's met zich meebrengen.

Dit leidt tot rechtsonzekerheid voor bedrijven en kan, als gevolg van het gebrek aan vertrouwen, de invoering van AI-technologieën door bedrijven en burgers vertragen. Uiteenlopende reacties van de nationale autoriteiten op regelgevingsgebied kunnen tot versnippering van de interne markt leiden.

Op wie is de AI-verordening van toepassing?

Het rechtskader zal van toepassing zijn op zowel publieke als private actoren binnen en buiten de EU die in de Unie een AI-systeem in de handel brengen of die een AI-systeem gebruiken dat een impact heeft op mensen in de Unie.

Het kan zowel betrekking hebben op aanbieders (bv. een ontwikkelaar van een tool om cv's te screenen) als op exploitanten van AI-systemen met een hoog risico (bv. een bank die een dergelijke screeningtool koopt).Invoerders van AI-systemen zullen er ook voor moeten zorgen dat de buitenlandse aanbieder vooraf de passende conformiteitsbeoordelingsprocedure heeft uitgevoerd, dat er een Europese conformiteitsmarkering (CE) aanwezig is dat de vereiste documentatie en handleiding beschikbaar zijn.

Daarnaast is voorzien in bepaalde verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden, met inbegrip van grote generatieve AI-modellen.

Aanbieders van gratis en opensourcemodellen zijn vrijgesteld van de meeste van deze verplichtingen. Deze vrijstelling heeft geen betrekking op verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden met systeemrisico's.

Verplichtingen zijn evenmin van toepassing op onderzoeks-, ontwikkelings- en prototypingactiviteiten voorafgaand aan de introductie op de markt, en de verordening is bovendien niet van toepassing op AI-systemen die uitsluitend bestemd zijn voor militaire, defensie- of nationale veiligheidsdoeleinden, ongeacht het type entiteit dat deze activiteiten uitvoert.

Welke zijn de risicocategorieën?

De Commissie stelt een risicogebaseerde aanpak voor met vier risiconiveaus voor AI-systemen, alsook een identificatie van risico's die specifiek zijn voor modellen voor algemene doeleinden:

  • Minimaal risico: Alle andere AI-systemen kunnen zonder bijkomende wettelijke verplichtingen conform de bestaande wetgeving worden ontwikkeld en gebruikt. De grote meerderheid van de AI-systemen die op dit moment in de EU worden gebruikt of wellicht zouden kunnen worden gebruikt, behoren tot deze categorie. Aanbieders van die systemen kunnen ervoor kiezen de vereisten voor betrouwbare AI toe te passen en niet-bindende gedragscodes na te leven.
  • Hoog risico: Een beperkt aantal AI-systemen die in het voorstel worden gedefinieerd en die de veiligheid van mensen of hun grondrechten mogelijk schaden (zoals beschermd door het Handvest van de grondrechten van de EU), worden als risicovol beschouwd. De verordening gaat vergezeld van een lijst van AI-systemen met een hoog risico, die kan worden herzien op basis van de ontwikkeling van AI-toepassingen in de praktijk.
  • Het gaat ook om veiligheidscomponenten van producten die onder sectorale wetgeving van de Unie vallen. Zij worden per definitie een hoog risico beschouwd als zij in het kader van de sectorale wetgeving aan een conformiteitsbeoordeling door derden moeten worden onderworpen.
  • Onaanvaardbaar risico: Een zeer beperkt aantal bijzonder schadelijke toepassingen van AI die in strijd zijn met de waarden van de EU omdat zij de grondrechten schenden en daarom verboden zullen worden:
    • sociale scoring voor de overheid en de particuliere sector;
    • uitbuiting van kwetsbaarheden van personen, gebruik van subliminale technieken;
    • biometrische identificatie op afstand in realtime in openbare ruimten door rechtshandhavingsinstanties, behoudens beperkte uitzonderingen (zie hieronder);
    • biometrische categorisering van natuurlijke personen op basis van biometrische gegevens om hun ras, politieke overtuiging, vakbondslidmaatschap, religieuze of levensbeschouwelijke overtuiging of seksuele geaardheid te deduceren of te infereren. Het filteren van datasets op basis van biometrische gegevens op het gebied van rechtshandhaving zal nog steeds mogelijk zijn;
    • individueel voorspellend politiewerk;
    • emotieherkenning op de werkplek en in onderwijsinstellingen, tenzij om medische of veiligheidsredenen (d.w.z. monitoring van het vermoeidheidsniveau van een piloot);
    • het niet-gericht scrapen van internet of CCTV-beelden voor gezichtsopnamen om databanken op te bouwen of uit te breiden.
  • Specifiek transparantierisico: Voor specifieke AI-systemen worden een aantal transparantieverplichtingen opgelegd, bijvoorbeeld wanneer er een duidelijk risico op manipulatie bestaat (bv. door het gebruik van chatbots). Gebruikers moeten zich ervan bewust zijn dat zij met een machine interageren.

Daarnaast wordt in de AI-verordening rekening gehouden met systeemrisico's die kunnen voortvloeien uit AI-modellen voor algemene doeleinden, met inbegrip van grote generatieve AI-modellen. Deze kunnen voor verschillende taken worden gebruikt en vormen intussen de basis voor veel AI-systemen in de EU. Sommige van deze modellen kunnen systeemrisico's met zich meebrengen als ze zeer krachtig zijn of op grote schaal worden gebruikt. Krachtige modellen kunnen bijvoorbeeld ernstige ongevallen veroorzaken of worden misbruikt voor vergaande cyberaanvallen. Veel personen kunnen worden getroffen als een model schadelijke vooroordelen in veel toepassingen verspreidt.

Hoe weet ik of een AI-systeem een hoog risico inhoudt?

Naast een duidelijke definitie van het begrip “hoog risico”, bevat de verordening een robuuste methode waarmee AI-systemen met een hoog risico binnen het rechtskader kunnen worden opgespoord. Dit moet bedrijven en andere marktdeelnemers rechtszekerheid bieden.

De risicoclassificatie is gebaseerd op het beoogde doel van het AI-systeem, conform de bestaande EU-wetgeving inzake productveiligheid. Dit betekent dat de classificatie van het risico afhangt van de functie die het AI-systeem vervult en van het specifieke doel en de specifieke modaliteiten waarvoor dat systeem wordt gebruikt.

De verordening gaat vergezeld van een lijst van toepassingen die als risicovol worden beschouwd. De Commissie zorgt ervoor dat de lijst wordt bijgewerkt en relevant blijft. Systemen op de hoog-risico lijst die beperkte procedurele taken uitvoeren, het resultaat van eerdere menselijke activiteiten verbeteren, geen invloed hebben op menselijke beslissingen of louter voorbereidende taken uitvoeren, worden niet als systemen met een hoog risico beschouwd. Een AI-systeem dat profilering van natuurlijke personen uitvoert, wordt dan weer altijd als een AI-systeem met een hoog risico beschouwd.

Aan welke verplichtingen moeten aanbieders van AI-systemen met een hoog risico voldoen?

Alvorens een AI-systeem met een hoog risico in de EU in de handel te brengen of anderszins in gebruik te nemen, moet de aanbieder dat systeem aan een conformiteitsbeoordeling onderwerpen. Zo kunnen zij aantonen dat hun systeem voldoet aan de bindende eisen voor betrouwbare AI (bv. gegevenskwaliteit, documentatie en traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid, cyberbeveiliging en robuustheid). Deze beoordeling moet worden herhaald als het systeem of het doel ervan ingrijpend wordt gewijzigd.

AI-systemen die fungeren als veiligheidscomponenten van producten die onder sectorale wetgeving van de Unie vallen, vormen een hoog risico wanneer op grond van de sectorale wetgeving voor de conformiteitsbeoordeling een beroep moet worden gedaan op een derde partij. Ook voor biometrische systemen is altijd een conformiteitsbeoordeling door een derde partij vereist.

Aanbieders van Ai-systemen met een hoog risico zullen ook kwaliteits- en risicobeheersystemen moeten toepassen om ervoor te zorgen dat zij aan de nieuwe eisen voldoen en om de risico's voor gebruikers en betrokkenen zoveel mogelijk te beperken, ook nadat een product in de handel is gebracht.

AI-systemen met een hoog risico die door overheidsinstanties of namens hen optredende entiteiten worden uitgerold, moeten worden geregistreerd in een openbare EU-databank, tenzij die systemen worden gebruikt voor rechtshandhaving en migratie. Deze gegevens moeten worden geregistreerd in een niet-openbaar deel van de databank dat alleen toegankelijk zal zijn voor de betrokken toezichthoudende autoriteiten.

De markttoezichtautoriteiten zullen de monitoring na het in de handel brengen ondersteunen door middel van audits en door aanbieders de mogelijkheid te bieden ernstige incidenten of de schending van verplichtingen inzake de grondrechten waarvan zij kennis hebben gekregen, te rapporteren. Elke markttoezichtautoriteit kan om uitzonderlijke redenen dat een specifiek AI-systeem in de handel wordt gebracht.

In geval van een inbreuk kunnen de nationale autoriteiten op grond van de eisen toegang krijgen tot de informatie die zij nodig hebben om te onderzoeken of het gebruik van het AI-systeem in overeenstemming was met de wet.

Wat zijn voorbeelden van toepassingen met een hoog risico zoals gedefinieerd in bijlage III?

  • Bepaalde kritieke infrastructuur, bijvoorbeeld op het gebied van wegverkeer en de levering van water, gas, verwarming en elektriciteit;
  • Onderwijs en beroepsopleiding, bijvoorbeeld om leerresultaten te evalueren en het leerproces te sturen en toezicht te houden op bedrog;
  • Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, bijvoorbeeld om gerichte vacatures te plaatsen, sollicitaties te analyseren en te filteren, en kandidaten te evalueren;
  • Toegang tot essentiële particuliere en openbare diensten en uitkeringen (bv. gezondheidszorg), kredietwaardigheidsbeoordeling van natuurlijke personen en risicobeoordeling en prijsstelling met betrekking tot levens- en ziektekostenverzekering;
  • Bepaalde systemen die worden gebruikt op het gebied van rechtshandhaving, grenscontrole, rechtsbedeling en democratische processen;
  • Evaluatie en classificatie van noodoproepen;
  • Systemen voor biometrische identificatie, categorisering en emotieherkenning (buiten de verboden categorieën);
  • Aanbevelingssystemen van zeer grote onlineplatforms zijn niet opgenomen aangezien zij al onder andere wetgeving vallen (digitalemarktenverordening/ digitaledienstenverordening).

Hoe worden AI-modellen voor algemene doeleinden gereguleerd?

AI-modellen voor algemene doeleinden, met inbegrip van grote generatieve AI-modellen, kunnen voor uiteenlopende taken worden gebruikt. Individuele modellen kunnen in een groot aantal AI-systemen worden geïntegreerd.

Het is belangrijk dat een aanbieder die op een AI-model voor algemene doeleinden wil voortbouwen, over alle nodige informatie beschikt om ervoor te zorgen dat zijn systeem veilig is en in overeenstemming is met de AI-verordening.

Daarom verplicht de AI-verordening aanbieders van dergelijke modellen om bepaalde informatie bekend te maken aan downstreamsysteemaanbieders. Deze transparantie maakt een beter begrip van deze modellen mogelijk.

Aanbieders van modellen moeten bovendien over beleid beschikken om ervoor te zorgen dat zij bij het opleiden van hun modellen het auteursrecht eerbiedigen.

Bovendien kunnen sommige van deze modellen systeemrisico's met zich meebrengen als ze zeer krachtig zijn of op grote schaal worden gebruikt.

Momenteel worden AI-modellen voor algemene doeleinden die zijn opgeleid met een totale rekenkracht van meer dan 10^25 flops geacht systeemrisico's in te houden, aangezien modellen die zijn opgeleid met een grotere rekenkracht doorgaans krachtiger zijn. Het (binnen de Commissie opgerichte) AI-bureau kan deze drempel actualiseren in het licht van de technologische vooruitgang en kan bovendien in specifieke gevallen andere modellen als zodanig aanwijzen op basis van verdere criteria (bv. aantal gebruikers of de mate van autonomie van het model).

Aanbieders van modellen met systeemrisico's krijgen daarom de opdracht om risico's te beoordelen en te beperken, ernstige incidenten te melden, geavanceerde tests en modelevaluaties uit te voeren, cyberbeveiliging te waarborgen en informatie te verstrekken over het energieverbruik van hun modellen.

Daarvoor wordt hen gevraagd samen te werken met het Europese AI-bureau om gedragscodes op te stellen als centraal instrument om de regels in samenwerking met andere deskundigen uit te werken. Een wetenschappelijk panel zal een centrale rol spelen bij het toezicht op AI-modellen voor algemene doeleinden.

Waarom is 10^25 flops een passende drempel voor AI-modellen voor algemene doeleinden met systeemrisico's?

Met deze drempel vallen de momenteel meest geavanceerde AI-modellen voor algemene doeleinden, namelijk de GPT-4 van OpenAI en waarschijnlijk de Gemini van Google DeepMind, hieronder.

Er is namelijk nog niet genoeg inzicht in de capaciteiten van de modellen boven deze drempel. Zij kunnen systeemrisico's met zich meebrengen en daarom is het redelijk om hun aanbieders aan de aanvullende reeks verplichtingen te onderwerpen.

Flop is een eerste maatstaf voor modelcapaciteiten en het Europees AI-bureau kan de exacte flop-drempel naar boven of naar beneden bijstellen, bijvoorbeeld in het licht van de vooruitgang bij het objectief meten van modelcapaciteiten en van ontwikkelingen in de rekenkracht die nodig is voor een bepaald prestatieniveau.

De AI-verordening kan worden gewijzigd om de flop-drempel te actualiseren (door middel van een gedelegeerde handeling).

Is de AI-verordening toekomstbestendig?

De verordening introduceert verschillende risiconiveaus en bevat duidelijke definities, onder meer voor AI-modellen voor algemene doeleinden.

De wetgeving stelt resultaatgerichte eisen vast voor AI-systemen met een hoog risico, maar laat de concrete technische oplossingen en operationalisering in de eerste plaats over aan door de industrie gestuurde normen die ervoor zullen zorgen dat het rechtskader flexibel is zodat het kan worden aangepast aan verschillende gebruikssituaties en nieuwe technologische oplossingen mogelijk kan maken.

Daarnaast kan de AI-verordening worden gewijzigd door middel van gedelegeerde en uitvoeringshandelingen, onder meer om de flop-drempel te actualiseren (gedelegeerde handeling), criteria toe te voegen voor de indeling van AI-modellen voor algemene doeleinden als systeemrisico (gedelegeerde handeling) en de modaliteiten te wijzigen voor het opzetten van testomgevingen voor regelgeving en elementen van plan voor testen onder reële omstandigheden (uitvoeringshandelingen).

Hoe reguleert de AI-wet biometrische identificatie?

Het gebruik van biometrische identificatie op afstand in realtime in openbare ruimten (d.w.z. gezichtsherkenning met behulp van CCTV) voor rechtshandhavingsdoeleinden is verboden, behalve in een van de volgende gevallen:

  • rechtshandhavingsactiviteiten in verband met 16 specifieke misdrijven;
  • gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, en vermiste personen; of
  • het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag.

De lijst met 16 misdrijven:

  • terrorisme,
  • mensenhandel,
  • seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen;
  • illegale handel in verdovende middelen en psychotrope stoffen,
  • illegale handel in wapens, munitie en explosieven,
  • moord,
  • zware mishandeling,
  • illegale handel in menselijke organen en weefsels,
  • illegale handel in nucleaire en radioactieve stoffen,
  • ontvoering, wederrechtelijke vrijheidsberoving en gijzeling,
  • misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen,
  • kaping van vliegtuigen/schepen,
  • verkrachting,
  • milieucriminaliteit,
  • georganiseerde of gewapende diefstal,
  • sabotage, deelneming aan een criminele organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven.

Biometrische identificatie op afstand in realtime door rechtshandhavingsinstanties zou onderworpen zijn aan voorafgaande toestemming van een gerechtelijke of onafhankelijke administratieve autoriteit waarvan de beslissing bindend is. In spoedeisende gevallen kan de vergunning binnen 24 uur worden verleend; als de vergunning wordt geweigerd, moeten alle gegevens en de output worden gewist.

Het moet worden voorafgegaan door een voorafgaande effectbeoordeling op het gebied van de grondrechten en moet worden gemeld aan de betrokken markttoezichtautoriteit en de gegevensbeschermingsautoriteit. In spoedeisende gevallen kan met het gebruik van het systeem worden begonnen zonder registratie.

Voor het gebruik van AI-systemen voor biometrische identificatie op afstand achteraf (identificatie van personen in eerder verzameld videomateriaal) van personen tegen wie een onderzoek loopt, is voorafgaande toestemming vereist van een gerechtelijke autoriteit of een onafhankelijke administratieve autoriteit, evenals kennisgeving aan de gegevensbeschermings- en markttoezichtautoriteit.

Waarom zijn er specifieke regels nodig voor biometrische identificatie op afstand?

Biometrische identificatie kan verschillende vormen aannemen. Gebruikers kunnen ermee worden geauthenticeerd, bijvoorbeeld bij het ontgrendelen van een smartphone of bij identificatie aan een grensovergang om te controleren of de identiteit van een persoon overeenkomt met die op de reisdocumenten (een-op-een-matching).

Biometrische identificatie kan ook op afstand worden gebruikt voor de identificatie van mensen in een massa, waarbij een afbeelding van een persoon wordt vergeleken met afbeeldingen in een databank (een-op-veel-matching).

De nauwkeurigheid van systemen voor gezichtsherkenning hangt sterk af van talrijke factoren, zoals de kwaliteit van de camera, het licht, de afstand, de databank, het algoritme en de etniciteit, de leeftijd of het geslacht van de persoon. Hetzelfde geldt voor de herkenning van de manier van stappen, spraakherkenning en andere biometrische systemen. Bij zeer geavanceerde systemen ligt het percentage fout-positieven steeds lager.

Hoewel een nauwkeurigheidsgraad van 99 % in het algemeen goed klinkt, is het bijzonder riskant wanneer het resultaat tot de verdenking van een onschuldige leidt. Zelfs een foutenpercentage van 0,1 % is veel als het gaat om tienduizenden mensen gaat.

Hoe beschermen deze nieuwe regels de grondrechten?

In de EU en haar lidstaten bestaat al een sterke bescherming van de grondrechten en tegen discriminatie, maar de complexiteit en ondoorzichtigheid van bepaalde AI-toepassingen (“black boxes”) vormen een probleem.

Een mensgerichte benadering van AI betekent dat AI-toepassingen in overeenstemming moeten zijn met de wetgeving inzake grondrechten. De vereisten inzake verantwoordingsplicht en transparantie voor het gebruik van AI-systemen met een hoog risico, ondersteund door een sterkere handhavingscapaciteit, zullen ervoor zorgen dat vanaf de ontwikkelingsfase rekening wordt gehouden met de naleving van de wetgeving.

Als een inbreuk wordt vastgesteld, kunnen de nationale autoriteiten op grond van die eisen toegang krijgen tot de informatie die zij nodig hebben om te onderzoeken of het gebruik van AI in overeenstemming was met de EU-regelgeving.

Bovendien schrijft de AI-verordening voor dat exploitanten die publiekrechtelijke lichamen of particuliere exploitanten zijn die openbare diensten verlenen en exploitanten die systemen met een hoog risico aanbieden, een effectbeoordeling met betrekking tot de grondrechten moeten uitvoeren.

Wat is een effectbeoordeling met betrekking tot de grondrechten? Wie moet een dergelijke beoordeling uitvoeren, en wanneer?

Het gebruik van een AI-systeem met een hoog risico kan gevolgen hebben voor de grondrechten. Exploitanten die publiekrechtelijke lichamen zijn of particuliere exploitanten die openbare diensten verlenen, en exploitanten die systemen met een hoog risico aanbieden, voeren daarom een beoordeling uit van de gevolgen voor de grondrechten en stellen de nationale autoriteit in kennis van de resultaten.

De beoordeling bestaat uit een beschrijving van de processen van exploitanten waarin het AI-systeem met een hoog risico zal worden gebruikt, van de periode waarin en de frequentie waarmee het AI-systeem met een hoog risico zal worden gebruikt, van de categorieën natuurlijke personen en groepen die waarschijnlijk gevolgen zullen ondervinden van het gebruik ervan in de specifieke context, van de specifieke risico's op schade die waarschijnlijk gevolgen zullen hebben voor de getroffen categorieën personen of groep personen, een beschrijving van de uitvoering van maatregelen voor menselijk toezicht en van de maatregelen die moeten worden genomen wanneer de risico's werkelijkheid worden.

Indien de aanbieder reeds aan deze verplichting heeft voldaan door middel van de gegevensbeschermingseffectbeoordeling, wordt de effectbeoordeling van de grondrechten samen met die gegevensbeschermingseffectbeoordeling uitgevoerd.

Op welke manier biedt deze verordening een antwoord op de vooringenomenheid op het gebied van ras en geslacht in AI?

Het is zeer belangrijk dat AI-systemen geen vooringenomenheid creëren of reproduceren. Wanneer AI-systemen correct worden ontworpen en gebruikt, kunnen zij net bijdragen tot het verminderen van vooroordelen en bestaande structurele discriminatie, en zo tot billijkere en niet-discriminerende beslissingen leiden (bv. bij een aanwerving).

Dat is de doelstelling van de nieuwe bindende eisen voor alle AI-systemen met een hoog risico. Die systemen moeten technisch robuust zijn om te waarborgen dat de technologie geschikt is voor het beoogde doel en dat beschermde groepen niet onevenredig worden getroffen door fout-positieve/negatieve resultaten (bv. op basis van ras of etnische afkomst, geslacht, leeftijd enz.).

Systemen met een hoog risico zullen ook moeten worden getraind en getest met een voldoende representatieve dataset om het risico op oneerlijke vooroordelen in het model tot een minimum te beperken en ervoor te zorgen dat die kunnen worden aangepakt met passende maatregelen om vooringenomenheid op te sporen en te corrigeren en met andere risicobeperkende maatregelen.

Zij moeten ook traceerbaar en controleerbaar zijn en ervoor zorgen dat passende documentatie wordt bijgehouden, waaronder de gegevens die worden gebruikt om het algoritme te trainen, die cruciaal zullen zijn voor onderzoeken achteraf.

Het systeem voor de bewaking van de conformiteit vóór en na het in de handel brengen, moet ervoor zorgen dat de systemen regelmatig worden gecontroleerd en dat potentiële risico's onmiddellijk worden aangepakt.

Wanneer is de AI-verordening volledig van toepassing?

Na goedkeuring door het Europees Parlement en de Raad treedt de AI-verordening in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad. Zij zal 24 maanden na de inwerkingtreding volledig van toepassing zijn, met de volgende graduele aanpak:

  • 6 maanden na de inwerkingtreding bouwen de lidstaten verboden systemen af;
  • 12 maanden: verplichtingen voor governance van AI voor algemene doeleinden worden van toepassing;
  • 24 maanden: alle regels van de AI-verordening worden van toepassing, met inbegrip van de verplichtingen voor systemen met een hoog risico zoals gedefinieerd in bijlage III (lijst van gebruiksgevallen met een hoog risico);
  • 36 maanden: verplichtingen voor systemen met een hoog risico zoals gedefinieerd in bijlage II (lijst van harmonisatiewetgeving van de Unie) worden van toepassing.

Hoe zal de AI-wet worden gehandhaafd?

De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale autoriteiten aanwijzen die belast worden met het toezicht op de toepassing van de regels en op de markt.

Om de efficiëntie te vergroten en een officieel contactpunt voor het publiek en andere partijen in te stellen, moet elke lidstaat één nationale toezichthoudende autoriteit aanwijzen, die de lidstaat ook zal vertegenwoordigen in het Europees comité voor artificiële intelligentie.

Aanvullende technische expertise zal worden geleverd door een adviesforum dat een evenwichtige selectie van belanghebbenden vertegenwoordigt, uit onder meer het bedrijfsleven, start-ups, kmo's, het maatschappelijk middenveld en de academische wereld.

Daarnaast zal de Commissie binnen de Commissie een nieuw Europees AI-bureau oprichten, dat toezicht zal houden op AI-modellen voor algemene doeleinden, zal samenwerken met het Europees Comité voor artificiële intelligentie en zal worden ondersteund door een wetenschappelijk panel van onafhankelijke deskundigen.

Waarom is een Europees Comité voor artificiële intelligentie nodig en wat gaat het doen?

Het comité voor artificiële intelligentie bestaat uit hooggeplaatste vertegenwoordigers van de bevoegde nationale toezichthoudende autoriteiten, de Europese Toezichthouder voor gegevensbescherming en de Commissie. Het comité heeft de opdracht de soepele, doeltreffende en geharmoniseerde invoering van de nieuwe AI-verordening te faciliteren.

Het comité zal aanbevelingen doen en adviezen uitbrengen aan de Commissie met betrekking tot AI-systemen met een hoog risico en over andere aspecten die relevant zijn voor de doeltreffende en uniforme toepassing van de nieuwe regels. Tot slot zal het comité ook de normalisatiewerkzaamheden op dit gebied ondersteunen.

Wat zijn de taken van het Europees AI-bureau?

Het AI-bureau heeft tot taak deskundigheid en capaciteiten van de Unie op het gebied van artificiële intelligentie te ontwikkelen en bij te dragen tot de uitvoering van Uniewetgeving inzake artificiële intelligentie in een gecentraliseerde structuur.

Met name zorgt het AI-bureau voor de handhaving van en het toezicht op de nieuwe regels voor AI-modellen voor algemene doeleinden. Dit omvat het opstellen van praktijkcodes om de regels uit te werken, zijn rol bij het classificeren van modellen met systeemrisico's en het monitoren van de doeltreffende uitvoering en naleving van de verordening. Dit laatste wordt vergemakkelijkt door de bevoegdheid om documentatie op te vragen, modelevaluaties uit te voeren, onderzoek te doen naar aanleiding van waarschuwingen en aanbieders te verzoeken corrigerende maatregelen te nemen.

Het AI-Bureau zorgt voor coördinatie met betrekking tot het beleid inzake artificiële intelligentie en voor samenwerking tussen de betrokken instellingen, organen en instanties van de Unie, alsook met deskundigen en belanghebbenden. Het zal met name zorgen voor een sterke band met de wetenschappelijke gemeenschap om de handhaving te ondersteunen, fungeren als internationaal referentiepunt voor onafhankelijke deskundigen en deskundige organisaties en de uitwisseling en samenwerking met soortgelijke instellingen over de hele wereld vergemakkelijken.

Wat is het verschil tussen het AI-comité, het AI-bureau, het adviesforum en het wetenschappelijk panel van onafhankelijke deskundigen?

Het AI-comité heeft zijn taken uitgebreid om de Commissie en de lidstaten te adviseren en bij te staan.

Het AI-bureau wordt opgericht binnen de Commissie en werkt aan de ontwikkeling van deskundigheid en capaciteiten van de Unie op het gebied van artificiële intelligentie en aan de uitvoering van Uniewetgeving inzake artificiële intelligentie. Het AI-bureau zorgt met name voor de handhaving van en het toezicht op de nieuwe regels voor AI-modellen voor algemene doeleinden.

Het adviesforum zal bestaan uit een evenwichtige selectie van belanghebbenden, uit onder meer het bedrijfsleven, start-ups, kmo's, het maatschappelijk middenveld en de academische wereld. Het wordt opgericht om het comité en de Commissie te adviseren en technische expertise te verstrekken, waarbij het comité uit de belanghebbenden leden van het forum aanwijst.

Het wetenschappelijk panel van onafhankelijke deskundigen ondersteunt de uitvoering en handhaving van de verordening met betrekking tot AI-modellen en systemen voor algemene doeleinden, en de lidstaten zouden toegang hebben tot de pool van deskundigen.

Wat zijn de sancties voor inbreuken?

Wanneer AI-systemen die niet aan de eisen van de verordening voldoen in de handel worden gebracht of worden gebruikt, moeten de lidstaten doeltreffende, evenredige en afschrikkende sancties, zoals administratieve boetes, opleggen en de Commissie daarvan in kennis stellen.

In de verordening worden daartoe de volgende drempels vastgesteld:

  • tot 35 miljoen euro of 7 % van de totale wereldwijde jaaromzet in het voorgaande boekjaar (als dat bedrag hoger is) in geval van verboden praktijken of inbreuken op de wettelijke eisen inzake gegevens;
  • tot 15 miljoen euro of 3 % van de totale wereldwijde jaaromzet in het voorgaande boekjaar voor inbreuken op andere vereisten of verplichtingen van de verordening, met inbegrip van inbreuken op de regels inzake AI-modellen voor algemene doeleinden;
  • tot 7,5 miljoen euro of 1,5 % van de totale wereldwijde jaaromzet in het voorgaande boekjaar voor het verstrekken van onjuiste, onvolledige of misleidende informatie aan aangemelde instanties en nationale bevoegde autoriteiten in antwoord op een verzoek.
  • Voor elke categorie inbreuken is de drempel voor kmo's het laagste van de twee bedragen en voor andere ondernemingen het hoogste.

Om de nationale regels en praktijken bij de vaststelling van administratieve geldboetes te harmoniseren, stelt de Commissie, rekening houdend met het advies van het comité voor AI, richtsnoeren op.

Aangezien EU-instellingen, -agentschappen of -organen het goede voorbeeld moeten geven, gelden deze regels ook voor hen en krijgt de Europese Toezichthouder voor gegevensbescherming de bevoegdheid hen boetes op te leggen.

Wat kunnen personen doen die worden getroffen door een schending van een regel?

De AI-verordening voorziet in het recht om een klacht in te dienen bij een nationale autoriteit. Op basis hiervan kunnen de nationale autoriteiten markttoezichtactiviteiten starten volgens de procedures van de markttoezichtverordeningen.

Daarnaast heeft de AI-aansprakelijkheidsrichtlijn tot doel personen die vergoeding vorderen van schade door AI-systemen met een hoog risico, doeltreffende middelen te bieden om potentieel aansprakelijke personen te identificeren en relevant bewijsmateriaal voor een schadevordering te verkrijgen. Daartoe voorziet de voorgestelde richtlijn in de openbaarmaking van bewijsmateriaal over specifieke AI-systemen met een hoog risico waarvan wordt vermoed dat zij schade hebben veroorzaakt.

Bovendien zou de herziene richtlijn productaansprakelijkheid ervoor zorgen dat schadevergoeding beschikbaar is voor personen die overlijden of lichamelijk letsel of materiële schade oplopen als gevolg van een product met gebreken in de Unie, en zou worden verduidelijkt dat AI-systemen en -producten waarin AI-systemen zijn geïntegreerd, ook onder de bestaande regels vallen.

Hoe werken de vrijwillige gedragscodes voor AI-systemen met een hoog risico?

Aanbieders van toepassingen zonder risico kunnen ervoor zorgen dat hun AI-systeem betrouwbaar is door hun eigen vrijwillige gedragscodes te ontwikkelen of zich te houden aan gedragscodes die door andere representatieve verenigingen zijn vastgesteld.

Voor bepaalde AI-systemen vormen die een aanvulling op de transparantieverplichtingen.

De Commissie zal brancheorganisaties en andere representatieve organisaties aanmoedigen om vrijwillige gedragscodes vast te stellen.

Hoe werken de praktijkcodes voor AI-modellen voor algemene doeleinden?

De Commissie nodigt aanbieders van AI-modellen voor algemene doeleinden en andere deskundigen uit om samen te werken aan een praktijkcode.

Zodra deze codes hiervoor zijn ontwikkeld en goedgekeurd, kunnen aanbieders van AI-modellen voor algemene doeleinden ze gebruiken om aan te tonen dat is voldaan aan de relevante verplichtingen van de AI-verordening, naar het voorbeeld van de AVG.

Dit is met name van belang om de regels voor aanbieders van AI-modellen voor algemene doeleinden met systeemrisico's uit te werken, om toekomstbestendige en doeltreffende regels voor risicobeoordeling en -beperking en andere verplichtingen te waarborgen.

Bevat de AI-wet bepalingen inzake milieubescherming en duurzaamheid?

Het AI-voorstel heeft tot doel risico's voor de veiligheid en de grondrechten aan te pakken, met inbegrip van het grondrecht op een hoog niveau van milieubescherming. Het milieu is ook een van de uitdrukkelijk genoemde en beschermde rechtsbelangen.

De Commissie wordt verzocht Europese normalisatieorganisaties om een normalisatieproduct te vragen over rapportage- en documentatieprocessen om de hulpbronnenprestaties van AI-systemen te verbeteren, zoals de vermindering van het energie- en verbruik van andere hulpbronnen van het AI-systeem met een hoog risico tijdens de levenscyclus ervan, en over de energie-efficiënte ontwikkeling van AI-modellen voor algemene doeleinden.

Voorts wordt de Commissie verzocht uiterlijk twee jaar na de datum van toepassing van de verordening en vervolgens om de vier jaar een verslag in te dienen over de evaluatie van de vooruitgang bij de ontwikkeling van normalisatieproducten met betrekking tot de energie-efficiënte ontwikkeling van modellen voor algemeen gebruik, en na te gaan of er behoefte is aan verdere maatregelen of acties, met inbegrip van bindende maatregelen of acties.

Daarnaast zijn aanbieders van AI-modellen voor algemene doeleinden, die worden getraind in grote hoeveelheden gegevens en daardoor gevoelig zijn voor een hoog energieverbruik, verplicht het energieverbruik bekend te maken.

De Commissie wordt verzocht een passende methode voor deze beoordeling te ontwikkelen.

In het geval van AI-modellen voor algemene doeleinden met systeemrisico's moet bovendien de energie-efficiëntie worden beoordeeld.

Hoe kunnen de nieuwe regels innovatie ondersteunen?

Het regelgevingskader kan het gebruik van AI op twee manieren bevorderen. Enerzijds zal een groter vertrouwen onder de gebruikers de vraag naar AI die door bedrijven en overheidsinstanties wordt gebruikt, doen toenemen. Anderzijds zullen AI-aanbieders, dankzij de grotere rechtszekerheid en harmonisering van de regels, toegang krijgen tot grotere markten, met producten die gebruikers en consumenten zullen waarderen en kopen. De regels zullen alleen van toepassing zijn wanneer dat strikt noodzakelijk is en op zodanige wijze dat de lasten voor de marktdeelnemers tot een minimum worden beperkt, met een lichte governancestructuur.

De AI-verordening maakt verder het opzetten mogelijk van testomgevingen voor regelgeving en tests onder reële omstandigheden, die een gecontroleerde omgeving bieden om gedurende een beperkte tijd innovatieve technologieën te testen, waardoor innovatie door bedrijven, kmo's en start-ups wordt bevorderd in overeenstemming met de AI-verordening. Samen met andere maatregelen, zoals de aanvullende netwerken van AI-kenniscentra en het publiek-private partnerschap inzake artificiële intelligentie, data en robotica, en toegang tot digitale-innovatiehubs en test- en experimenteerfaciliteiten zullen deze helpen om voor bedrijven de gunstige randvoorwaarden te scheppen om AI te ontwikkelen en toe te passen.

Tests onder reële omstandigheden van AI-systemen met een hoog risico kunnen worden uitgevoerd voor maximaal zes maanden (een termijn die met nog eens zes maanden kan worden verlengd). Voorafgaand aan de tests moet een plan worden opgesteld en ingediend bij de markttoezichtautoriteit, die het plan en de specifieke testvoorwaarden moet goedkeuren, met standaard stilzwijgende goedkeuring indien binnen 30 dagen geen antwoord is gegeven. Tests kunnen onaangekondigd door de autoriteit worden geïnspecteerd.

Tests onder reële omstandigheden kunnen alleen worden uitgevoerd met specifieke waarborgen, bv. gebruikers van de systemen die onder reële omstandigheden worden getest, moeten geïnformeerde toestemming geven, de tests mogen geen negatieve gevolgen voor hen hebben, de resultaten moeten omkeerbaar zijn of buiten beschouwing kunnen worden gelaten, en hun gegevens moeten na afloop van de test worden gewist. Bijzondere bescherming moet worden geboden aan kwetsbare groepen, met name vanwege hun leeftijd of lichamelijke of geestelijke handicap.

Hoe zal de EU behalve met de AI-verordening innovatie op het gebied van AI faciliteren en ondersteunen?

De aanpak van de EU op het gebied van artificiële intelligentie is gebaseerd op excellentie en vertrouwen, met als doel onderzoek en industriële capaciteit te stimuleren en tegelijkertijd de veiligheid en de bescherming van de grondrechten te waarborgen. Mensen en bedrijven moeten kunnen profiteren van de voordelen van AI terwijl zij zich veilig en beschermd voelen. De Europese AI-strategie heeft tot doel van de EU een hub van wereldklasse voor AI te maken en ervoor te zorgen dat AI mensgericht en betrouwbaar is. In april 2021 presenteerde de Commissie haar AI-pakket, waaronder: 1) een evaluatie van het gecoördineerde plan inzake artificiële intelligentie en 2) haar voorstel voor een verordening tot vaststelling van geharmoniseerde regels inzake AI.

Met het gecoördineerde plan inzake AI heeft de Europese Commissie een alomvattende strategie vastgesteld om de ontwikkeling en invoering van AI in Europa te bevorderen. Die strategie is gericht op het scheppen van randvoorwaarden voor de ontwikkeling en toepassing van AI, het waarborgen van uitmuntendheid van in het laboratorium tot op de markt, het vergroten van de betrouwbaarheid van AI en het opbouwen van strategisch leiderschap in sectoren met een grote impact.

De Commissie streeft ernaar de activiteiten van de lidstaten te benutten door hun inspanningen te coördineren en te harmoniseren, teneinde een samenhangende en synergetische benadering van de ontwikkeling en toepassing van AI te bevorderen. De Commissie heeft ook het platform van de Europese AI-alliantie opgezet, dat belanghebbenden uit de academische wereld, het bedrijfsleven en het maatschappelijk middenveld samenbrengt om kennis en inzichten over AI-beleid uit te wisselen.

Bovendien voorzien de gecoördineerde plannen in verschillende maatregelen die gericht zijn op het ontsluiten van gegevensbronnen, het bevorderen van kritieke computercapaciteit, het vergroten van de onderzoekscapaciteiten, het ondersteunen van een Europees netwerk van test- en experimenteerfaciliteiten en het ondersteunen van kmo's via Europese digitale-innovatiehubs.

Wat is de internationale dimensie van de aanpak van de EU?

De AI-verordening en het gecoördineerde plan inzake AI maken deel uit van de inspanningen van de Europese Unie om op wereldschaal een voortrekkersrol te vervullen bij het promoten van betrouwbare AI op internationaal niveau. AI is uitgegroeid tot een terrein van strategisch belang op het snijpunt van geopolitiek, commerciële belangen en veiligheidskwesties.

Landen over de hele wereld doen een beroep op het nut en het potentieel van AI om uitdrukking te geven aan hun verlangen naar technische vooruitgang. De AI-verordening staat nog in de kinderschoenen en de EU zal maatregelen nemen om de vaststelling van wereldwijde AI-normen te bevorderen in nauwe samenwerking met internationale partners, conform het op regels gebaseerde multilaterale bestel en de Europese waarden. De EU is voornemens de partnerschappen, coalities en allianties met EU-partners (bv. Japan, de VS, India, Canada, Zuid-Korea, Singapore of de Latijns-Amerikaanse en de Caribische regio), op multilateraal niveau (bv. OESO, G7 en G20) en met regionale organisaties (bv. de Raad van Europa) te verdiepen.

*Bijgewerkt op 14.12.2023

Mots clés

Articles recommandés

Artificiële intelligentie (AI): Raad keurt conclusies goed ter versterking van EU-ambities

Nieuw advies: Verslaggeving heropening vereffening vennootschappen

EU ambitieuze financierings- en investeringsdoelstellingen tijdens COP29