Afgelopen november markeerde een mijlpaal in de regulering van kunstmatige intelligentie (AI), met de AI Security Summit in Blechfield (UK) als epicentrum. Wereldleiders en topbestuurders van prominente technologiebedrijven kwamen samen om de noodzaak van een wereldwijde aanpak voor AI-regulering en -bestuur te bekrachtigen. De kern van de besprekingen was om een gemeenschappelijk begrip van AI-risico's te ontwikkelen, internationale samenwerking te bevorderen, veiligheidsmaatregelen voor organisaties voor te stellen, onderzoekssamenwerking te identificeren en het wereldwijd veilige gebruik van AI te demonstreren. De 28 vertegenwoordigers van over de hele wereld verenigden zich rond een krachtige verklaring: "Het dringende belang erkennend van het begrijpen en collectief managen van mogelijke risico's door middel van een vernieuwde, wereldwijde samenwerking, zetten we ons in om AI veilig en verantwoord te ontwikkelen en te gebruiken ten behoeve van de wereldgemeenschap."

In de aanloop naar de top werden leidende principes voor AI en een vrijwillige gedragscode voor AI-ontwikkelaars opgesteld, een onderdeel van het G7 Hiroshima AI Process geïnitieerd door de G7-landen en de Europese Unie. Dit proces streeft naar het vaststellen van wereldwijde kaders voor AI-systemen, met richtlijnen die organisaties ondersteunen bij het bevorderen van veiligheid en betrouwbaarheid in AI, en een gedragscode die praktische richtlijnen biedt voor AI-ontwikkeling.

De Verenigde Staten heeft een belangrijke stap gezet met de uitvaardiging van een presidentieel decreet dat zich richt op het identificeren en in balans brengen van de voordelen en risico's die kunstmatige intelligentie met zich meebrengt.

Parallel aan deze activiteiten onderzoekt de Verenigde Naties hoe zij een sturende rol kan spelen in het mondiaal AI Governance. Dit onderzoek wordt uitgevoerd door de recent geïnstalleerde Multistakeholder Advisory Body on Artificial Intelligence. Deze groep zal de samenhang tussen bestaande initiatieven verkennen, waaronder die van de Europese Unie en het G7 Hiroshima AI Process, en onderzoeken hoe deze kunnen bijdragen aan een effectieve, wereldwijde AI Governance. De bevindingen van dit adviesorgaan zullen tijdens de Summit of the Future in september 2024 aan het licht worden gebracht, wat een belangrijk moment zal zijn voor de vormgeving van toekomstige mondiale AI-beleid.

Deze bewegingen zijn geen toevallige gebeurtenissen; ze zijn deels aangedreven door de EU, die in 2018 met AI-wetgeving begon. Nu, enkele jaren later, nadert de Europese AI Act zijn laatste fase en zal naar verwachting eind 2023 een akkoord worden bereikt. Deze voorgestelde EU-regelgeving beoogt een risicogedreven professionele regulering van AI-systemen.

De wetgeving beoogt vier risico categorieën: verboden praktijken, hoog risico, beperkt risico en minimaal risico, waarbij per categorie andere voorwaarden geschetst worden. Verboden praktijken zijn strikt verboden, waarbij voor hoogrisico-AI-systemen een conformiteitsbeoordeling gedaan moet worden voordat ze op de markt worden gebracht om ervoor te zorgen dat ze voldoen aan de gestelde eisen in de AI Act. Daarnaast wordt ook nationaal een toezichthouder in het leven geroepen om toezicht te houden op de uitvoering van de AI Act.

Europese AI Act en het G7 Hiroshima AI Process

De Europese AI Act en de G7-gedragscode delen een visie op verantwoorde AI-ontwikkeling en het belang van veiligheid en transparantie. Ze verschillen echter in hun reikwijdte en wettelijke kracht: de EU AI Act is bindend met specifieke regels binnen de EU, terwijl de G7-gedragscode vrijwillige richtlijnen biedt zonder wettelijke verplichtingen.

Voor organisaties die in Europa actief zijn, is het cruciaal om te voldoen aan de toekomstige Europese AI Act. Zo moeten organisaties er onder andere voor zorgen dat zij risicobeheersing voor hun AI inrichten, daarover transparant zijn en verantwoording afleggen, en zorgen dat AI te allen tijde onder menselijk toezicht wordt ingezet. 

Impact en Voorbereiding

Verwacht wordt dat de AI Act begin 2024 door het Europees Parlement zal worden aangenomen, gevolgd door een implementatiefase van twee jaar. De impact van de AI Act zal elk bedrijf raken, ongeacht de omvang. Het is daarom van essentieel belang om nu al te beginnen met de voorbereidingen. Meer weten over de impact of voorbereidingen op de AI Act, neem contact op met KPMG Responsible AI.

De toenemende adoptie van artificial intelligence (AI) zorgt voor nieuwe vraagstukken rondom het betrouwbaar gebruik van data en AI. Waar het gebruik van data en AI veel kansen met zich meebrengt, gaat dit ook gepaard met risico’s op onder andere operationeel en ethisch vlak.

KPMG Responsible AI biedt services aan die erop gericht zijn om data analytics en AI gecontroleerd te implementeren, zonder daarbij in te leveren op innovatie. Responsible AI draagt bij aan het blootleggen van kwetsbaarheden en risico’s en het opzetten van
AI Governance, waarbij (data-)ethiek een centrale rol speelt. Zo bieden we organisaties inzicht, creëren we vertrouwen in AI en maken we het mogelijk om het volledige potentieel van AI te benutten.

Schrijf je in voor onze nieuwsbrief

Wij houden je op de hoogte per e-mail. Geef hier je voorkeuren door.