Responsible AI Platform

EU AI Act: complete gids voor compliance 2026

··11 min leestijd

Op 12 juli 2024 werd Verordening (EU) 2024/1689 gepubliceerd in het Publicatieblad van de Europese Unie. Op 1 augustus 2024 trad de wet in werking. Het is een wetgevingstraject van meer dan drie jaar: het eerste voorstel van de Europese Commissie dateerde van april 2021, waarna het Europees Parlement en de Raad via uitgebreide onderhandelingen tot een politiek akkoord kwamen in december 2023. Het resultaat is 's werelds eerste uitgebreide AI-regulering, en de standaard die het wereldwijd heeft gezet, is vergelijkbaar met wat de AVG in 2018 voor privacywetgeving betekende.

Maar anders dan bij de introductie van de AVG, waar organisaties een deadline hadden van twee jaar om te voldoen aan één set regels, werkt de EU AI Act met een gefaseerde implementatie waarbij verschillende verplichtingen op verschillende tijdstippen van kracht worden. Dat maakt de wet complexer te navigeren, maar biedt ook een realistischer tijdspad voor de aanzienlijke organisatorische aanpassingen die zij vereist.

De architectuur van de wet: risicogebaseerd

Het meest fundamentele keuze in het ontwerp van de EU AI Act is de risicogebaseerde aanpak. In plaats van uniforme regels voor alle AI-toepassingen te formuleren, differentieert de wet op basis van het risico dat een systeem meebrengt voor de gezondheid, veiligheid en fundamentele rechten van mensen. Die keuze is bewust: de Europese wetgever wilde voorkomen dat innovatie bij laag-risico toepassingen onnodig werd beperkt, terwijl de meest ingrijpende AI-toepassingen juist streng worden gereguleerd.

De wet hanteert vier risicocategorieën. Systemen met onaanvaardbaar risico zijn verboden: zij vormen een ernstige bedreiging voor fundamentele rechten of de menselijke waardigheid die geen enkele maatschappelijke afweging rechtvaardigt. Hoog-risico systemen mogen worden ingezet maar zijn onderworpen aan een uitgebreid pakket verplichtingen. Systemen met beperkt risico hebben primair transparantie-verplichtingen. Systemen met minimaal risico vallen buiten de kernverplichtingen van de wet en zijn alleen onderworpen aan bestaande wetgeving.

Verboden AI-praktijken

Artikel 5 van de EU AI Act bevat de absolute grenzen. Zes categorieën AI-systemen zijn per 2 februari 2025 verboden, ongeacht het beoogde doel of de technische inrichting.

Sociale-scoringssystemen die burgers beoordelen op basis van hun gedrag in één context en die beoordeling toepassen in een niet-gerelateerde context (zoals bij China's social credit system) zijn verboden. Systemen die gebruikmaken van subliminale of misleidende technieken om het gedrag van mensen te beïnvloeden op een manier die hun autonome besluitvorming ondermijnt, zijn verboden. Systemen die misbruik maken van kwetsbaarheden van specifieke groepen, zoals kinderen of mensen met cognitieve beperkingen, zijn verboden. Biometrische categorisering die ras, politieke overtuiging, religie of seksuele geaardheid afleidt, is verboden. Ongerichte scraping van gezichtsafbeeldingen via internet of beveiligingscamera's voor databases is verboden. Emotieherkenning op de werkplek en in het onderwijs is verboden.

Real-time biometrische identificatie in de openbare ruimte door wetshandhavingsinstanties is in beginsel verboden maar kent drie nauwe uitzonderingen: zoeken naar een vermist kind of een slachtoffer van mensenhandel, het voorkomen van een concrete terroristische aanslag, en de opsporing van een verdachte van een ernstig strafbaar feit waarvoor in de betreffende lidstaat minimaal drie jaar gevangenisstraf staat. Elke inzet in een van deze uitzonderingen vereist voorafgaande rechterlijke of administratieve toestemming, behalve in urgente situaties waarbij die achteraf zo snel mogelijk moet worden verkregen.

Hoog-risico systemen: de kern van de wet

Annex III van de AI Act bevat de lijst van hoog-risico toepassingen. Die lijst is limitatief maar kan door de Europese Commissie via gedelegeerde handelingen worden uitgebreid wanneer nieuwe toepassingen vergelijkbare risico's creëren. De acht domeinen die annex III omvat zijn: biometrie en emotieherkenning, kritieke infrastructuur, onderwijs en beroepsopleiding, werkgelegenheid en HR, essentiële publieke en private diensten (zorg, toeslagen, krediet), wetshandhaving, migratie en grensbeheer, en rechtsbedeling.

Voor systemen in deze categorieën gelden de substantiële verplichtingen van hoofdstuk III van de wet. Artikel 9 verplicht een doorlopend risicobeheersysteem dat risico's gedurende de hele levenscyclus identificeert, evalueert en mitigeert. Artikel 10 stelt data governance-eisen: trainingsdata moet relevant, representatief en vrij van relevante fouten zijn, en moet worden beoordeeld op mogelijke biassen. Artikel 11 en annex IV beschrijven de technische documentatie die verplicht is: algemene systeembeschrijving, ontwikkelingsproces, trainingsmethodologie, validatieresultaten, capaciteiten en beperkingen. Artikel 12 verplicht logging van de systeemwerking. Artikel 13 vereist transparantie naar gebruikers. Artikel 14 schrijft menselijk toezicht voor als intrinsiek systeemkenmerk, niet als externe controlelaag. Artikel 15 stelt eisen aan nauwkeurigheid, robuustheid en cyberveiligheid.

Voordat een hoog-risico systeem op de markt mag worden gebracht, moet de aanbieder een conformiteitsbeoordeling uitvoeren (artikel 43), een EU-conformiteitsverklaring opstellen (artikel 47), een CE-markering aanbrengen (artikel 48), en het systeem registreren in de centrale EU-database (artikel 49). Na marktintroductie geldt post-market monitoring (artikel 72) en een meldingsplicht voor ernstige incidenten.

General Purpose AI-modellen

Een van de meest innovatieve elementen van de AI Act is de aparte regulering van general purpose AI-modellen (GPAI), opgenomen in hoofdstuk V van de wet. GPAI-modellen zijn modellen die, ongeacht hun trainingswijze, kunnen worden ingezet voor een breed scala van taken, direct of via integratie in andere systemen. Grote taalmodellen zoals GPT-4, Claude, Gemini en hun open-source varianten vallen in deze categorie.

Alle GPAI-aanbieders hebben basisverplichtingen: technische documentatie overeenkomstig annex XI, een registratie van de trainingsdata inclusief een publieke samenvatting, een beleid voor naleving van auteursrechtwetgeving, en medewerking met downstream aanbieders die het model integreren in hun producten.

GPAI-modellen met systemisch risico, gedefinieerd als modellen getraind met meer dan 10^25 floating-point operaties of anderszins een grote maatschappelijke impact, hebben aanvullende verplichtingen: adversarieel testen (red-teaming) overeenkomstig artikel 55, meldingsplicht voor ernstige incidenten en significante risico's aan het AI Office, en versterkte cyberveiligheidsmaatregelen. Het AI Office, operationeel vanaf 2025, is de Europese instelling die toezicht houdt op GPAI-aanbieders.

Handhaving en sancties

De EU AI Act heeft aanzienlijk zwaardere sancties dan de GDPR voor de zwaarste overtredingen. Inbreuken op de verboden van artikel 5 kunnen worden bestraft met boetes tot €35 miljoen of 7% van de wereldwijde jaarlijkse omzet, afhankelijk van welk bedrag hoger is. Inbreuken op de verplichtingen voor hoog-risico systemen zijn strafbaar met boetes tot €15 miljoen of 3% van de omzet. Het verstrekken van onjuiste, onvolledige of misleidende informatie aan aangemelde instanties of autoriteiten is strafbaar met boetes tot €7,5 miljoen of 1% van de omzet.

Voor MKB-bedrijven en startups gelden de percentages maar met lagere absolute maxima: het laagste van het percentage of het vaste bedrag is van toepassing. Lidstaten mogen bij het bepalen van sancties rekening houden met de financiële draagkracht van kleinere organisaties, al biedt dat geen volledig schild.

Nationaal toezicht wordt uitgeoefend door aangewezen markttoezichtautoriteiten per lidstaat. In Nederland is dat primair de Rijksinspectie Digitale Infrastructuur (RDI) als markttoezichthouder, aangevuld met sectorale toezichthouders voor specifieke domeinen. De autoriteiten moeten worden aangewezen uiterlijk 2 augustus 2025; tot die datum is handhaving beperkt.

De implementatietijdlijn

De gefaseerde toepassing van de EU AI Act vraagt om een kalender die organisaties bijhouden.

Op 2 februari 2025 werden de verboden van artikel 5 en de AI-geletterdheidsplicht van artikel 4 van kracht. Organisaties die systemen gebruikten die nu verboden zijn, moesten voor die datum een exit-strategie hebben uitgevoerd. Tevens moeten organisaties aantoonbaar maatregelen hebben genomen om medewerkers die met AI werken voldoende AI-kennis te geven.

Op 2 augustus 2025 worden de volledige governance-bepalingen van kracht, inclusief de aanwijzing van nationale toezichthouders, de regels voor GPAI-modellen, en de handhavingsbevoegdheden inclusief boetes. Dit is het moment waarop actief toezicht mogelijk wordt.

Op 2 augustus 2026 treden de kernverplichtingen voor hoog-risico AI in werking: risicobeheersysteem, data governance, technische documentatie, logging, conformiteitsbeoordeling, CE-markering, registratie in de EU-database, en de verplichting tot het uitvoeren van een FRIA voor overheids- en publieke deployers. Dit is de meest ingrijpende deadline voor de meeste organisaties.

Op 2 augustus 2027 vervalt de overgangsregeling voor systemen die vóór augustus 2024 al op de markt waren. Bestaande systemen die nog niet compliant zijn, moeten dan volledig voldoen of buiten gebruik worden gesteld.

Wat organisaties nu moeten doen

De meest waardevolle investering op dit moment is een systematische inventarisatie van alle AI-systemen die de organisatie gebruikt, ontwikkelt of inkoopt. Die inventarisatie moet per systeem de risicocategorie bepalen, de rol van de organisatie (provider of deployer) vaststellen, en de gaps identificeren ten opzichte van de toepasselijke verplichtingen. Voor hoog-risico systemen die voor augustus 2026 compliant moeten zijn, is het tijdpad voor het opbouwen van een risicobeheersysteem, het produceren van technische documentatie, en het afronden van een conformiteitsbeoordeling gemeten in maanden, niet in weken.

Gebruik de complete gids EU AI Act als referentiekader voor de volledige structuur van de wet. De risk assessment tool biedt een gestructureerd framework voor de classificatie van systemen. En voor hoog-risico systemen in de publieke sector is de FRIA-generator een startpunt voor de verplichte fundamentele rechten impact assessment.

De EU AI Act is niet het einde van het reguleringslandschap voor AI. De wet geeft de Europese Commissie uitgebreide bevoegdheden om via gedelegeerde handelingen en uitvoeringshandelingen de details in te vullen en de scope aan te passen. Organisaties die compliance zien als een eenmalig project in aanloop naar een deadline, zullen ontdekken dat zij over twee jaar opnieuw moeten beginnen. Wie compliance inbouwt als een doorlopend proces, vergelijkbaar met hoe volwassen organisaties met de AVG omgaan, heeft een fundament dat bestand is tegen de evolutie van de regelgeving.

De AI Act in internationaal perspectief

De EU AI Act is niet in een vacuüm ontstaan. De wet heeft bewust aansluiting gezocht bij de OECD AI Principles en de definitie van AI die de OECD in 2023 heeft bijgewerkt. Die internationale afstemming heeft een praktisch doel: voorkomen dat Europese bedrijven een uniek Europees compliance-raamwerk moeten opbouwen dat haaks staat op de internationale standaard.

Tegelijkertijd zijn de verplichtingen van de AI Act uniek in hun concrete juridische bindendheid. De VS heeft geen vergelijkbare federale AI-wetgeving; de Executive Order on Safe, Secure, and Trustworthy AI van 2023 heeft een heel andere rechtskracht dan een Europese verordening. China heeft eigen AI-regulering maar die is primair gericht op het afdwingen van staatscontrole over AI-inhoud, niet op grondrechtenbescherming. Het Brussels effect, het fenomeen waarbij Europese regulering de wereldwijde standaard wordt omdat multinationale bedrijven hun wereldwijde processen afstemmen op de strengste jurisdictie, is bij de AVG al zichtbaar geworden en zal bij de AI Act naar verwachting hetzelfde pad volgen.

Voor Europese bedrijven die internationaal opereren, heeft dit een interessant bijeffect: een grondige AI Act-compliance is een goede voorbereiding op regulatoire eisen die in andere jurisdicties nog komen. De documentatievereisten van Annex IV, de data governance-eisen van artikel 10, en de menselijk toezichtsvereisten van artikel 14 zijn inhoudelijk vrijwel identiek aan wat de meeste voorstellen voor AI-regulering elders bevatten.

De verhouding tot de AVG

De meest gestelde vraag over de AI Act in compliance-kringen is hoe de wet zich verhoudt tot de AVG. Het antwoord is dat ze naast elkaar gelden, niet in plaats van elkaar. De AI Act reguleert AI-systemen als systemen; de AVG reguleert de verwerking van persoonsgegevens. Een AI-systeem dat persoonsgegevens verwerkt, valt onder beide wetten.

In de praktijk betekent dit dat organisaties die AI inzetten voor besluiten over individuele personen, doorgaans zowel een Data Protection Impact Assessment (DPIA) onder artikel 35 AVG als een Fundamental Rights Impact Assessment (FRIA) onder artikel 27 AI Act nodig hebben. Die assessments overlappen gedeeltelijk: beide vragen om identificatie van risico's voor individuen, analyse van mitigatiemaatregelen, en documentatie. Ze zijn echter niet identiek: de DPIA focust op privacyrisico's; de FRIA heeft een bredere scope inclusief non-discriminatie, recht op eerlijk proces, vrijheid van meningsuiting en toegang tot essentiële diensten.

Efficiënte organisaties voeren DPIA en FRIA geïntegreerd uit, zodat de overlappende analyses maar één keer worden gedaan en de organisatie-specifieke context maar één keer wordt gedocumenteerd. Dat bespaart tijd en vermindert het risico op inconsistente conclusies tussen de twee assessments.

Zelfregulering via het AI Pact

Parallel aan de formele implementatieduur heeft de Europese Commissie het AI Pact opgezet: een vrijwillig initiatief waarbij organisaties zich committeren aan vroege implementatie van de kernvereisten van de AI Act voordat de deadlines van 2026 verstrijken. Honderden organisaties, waaronder grote technologiebedrijven, financiële instellingen en publieke organisaties, hebben zich aangesloten.

Deelname aan het AI Pact heeft geen directe compliance-waarde: het is een vrijwillige toezegging, geen juridische conformiteitsbeoordeling. Maar het heeft wel indirecte voordelen. Organisaties die deelnemen, krijgen toegang tot peer learning met anderen die vergelijkbare compliance-vragen oplossen. Ze worden zichtbaar als early movers in AI governance, wat relevant is voor relaties met enterprise-klanten en toezichthouders. En ze dwingen zichzelf tot een governance-agenda die later in de formele compliance-fase als basis dient.

Wat organisaties nu moeten doen

De meest waardevolle investering op dit moment is een systematische inventarisatie van alle AI-systemen die de organisatie gebruikt, ontwikkelt of inkoopt. Die inventarisatie moet per systeem de risicocategorie bepalen, de rol van de organisatie (provider of deployer) vaststellen, en de gaps identificeren ten opzichte van de toepasselijke verplichtingen. Voor hoog-risico systemen die voor augustus 2026 compliant moeten zijn, is het tijdpad voor het opbouwen van een risicobeheersysteem, het produceren van technische documentatie, en het afronden van een conformiteitsbeoordeling gemeten in maanden, niet in weken.

Gebruik de complete gids EU AI Act als referentiekader voor de volledige structuur van de wet. De risk assessment tool biedt een gestructureerd framework voor de classificatie van systemen. En voor hoog-risico systemen in de publieke sector is de FRIA-generator een startpunt voor de verplichte fundamentele rechten impact assessment.

Op LearnWize:EU AI Act ComplianceProbeer het gratis

Van risicoclassificatie tot conformiteitsbeoordeling: leer het in 10 interactieve modules.

Doe de gratis AI challenge