Vooraanstaande AI-ontwikkelaars nemen belangrijke maatregelen om hun systemen robuuster en veiliger te maken, volgens een nieuw rapport van de OESO.
Perset, K. and S. Fialho Esposito (2025), “How are AI developers managing risks?: Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct”, OECD Artificial Intelligence Papers, No. 45, OECD Publishing, Paris, https://doi.org/10.1787/658c2ad6-en.
Het onderzoek How are AI developers managing risks? Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct (enkel beschikbaar in het Engels) analyseert de vrijwillige transparantierapporten die in het kader van het Hiroshima AI Proces zijn gepubliceerd door technologie- en telecommunicatiebedrijven, evenals door advies-, onderzoeks- en onderwijsinstellingen, waaronder Anthropic, Google, Microsoft, NTT, OpenAI, Salesforce en Fujitsu.
De analyse toont aan dat veel organisaties steeds geavanceerdere methoden ontwikkelen om risico's te evalueren en te beperken, waaronder red teaming-tests en op AI gebaseerde tools, om het gedrag van modellen beter te begrijpen en de betrouwbaarheid van systemen te verbeteren. Grote technologiebedrijven hanteren vaak meer geavanceerde praktijken, met name wat betreft de evaluatie van systemische en maatschappelijke risico's.
Hieruit blijkt tevens dat de belangrijkste AI-actoren zich steeds bewuster worden van het belang van het delen van informatie over risicobeheer, met als doel het vertrouwen te versterken, wederzijds leren te bevorderen en voorspelbaardere omgevingen te creëren voor innovatie en investeringen. Niettemin blijft, afgezien van bepaalde grote ondernemingen, het gebruik van technische traceerbaarheidstools zoals digitale watermerken, cryptografische handtekeningen en authenticatiemetadata voor content beperkt.
"Het verbeteren van de transparantie is essentieel om het vertrouwen in artificiële intelligentie te vergroten en de adoptie ervan te versnellen. Door gemeenschappelijke referentiepunten aan te bieden, kunnen vrijwillige transparantierapporten bijdragen aan het verspreiden van goede praktijken, het verminderen van regelgevende fragmentatie en het bevorderen van de adoptie van AI op economisch niveau, inclusief binnen kleine ondernemingen", aldus Jerry Sheehan, Directeur van het Directoraat Wetenschap, Technologie en Innovatie van de OESO.
"Bij het definiëren van gemeenschappelijke verwachtingen op het gebied van transparantie kan het rapportagekader van het Hiroshima AI Proces een waardevolle rol spelen door het proces te stroomlijnen. In de toekomst zou het organisaties ook kunnen helpen om te voldoen aan nieuwe rapportagevereisten, naarmate AI-technologieën en de bijbehorende governancepraktijken blijven evolueren." Amanda Craig, hoofddirecteur overheidsbeleid inzake Verantwoordelijke AI, Microsoft.
Het OESO-kader voor vrijwillige transparantierapporten, ontwikkeld onder het Italiaanse G7-voorzitterschap in 2024, met medewerking van vertegenwoordigers uit het bedrijfsleven, de academische wereld en het maatschappelijk middenveld, legt de basis voor de vaststelling van gecoördineerde benaderingen ter ondersteuning van veilige, beveiligde en betrouwbare AI. Het ondersteunt de implementatie van het Hiroshima AI Proces, gelanceerd onder het Japanse G7-voorzitterschap in 2023.
Het rapport How AI developers are managing risks: preliminary insights from the Hiroshima AI process reporting framework is hier te raadplegen.
Foto : OESO, How are AI developers managing risks
In het belang van zijn optimale verspreiding bieden wij u een automatische vertaling van dit artikel met behulp van kunstmatige intelligentie.
De Stichting is niet verantwoordelijk voor de kwaliteit en de nauwkeurigheid van deze machinevertaling.
Dit artikel is oorspronkelijk in het engels geschreven, dus het is de engelse versie waarnaar in alle gevallen moet worden verwezen