Responsible AI Platform
Complete Gids 2025

EU AI Act

Alles wat je moet weten over de eerste AI-wetgeving ter wereld

Van risicoclassificaties tot compliance deadlines, van boetes tot best practices. Dé definitieve bron voor AI-professionals in Nederland en België.

€35M
Maximale boete
8
Hoog-risico sectoren
2026
Hoofddeadline
~20 min leestijdLaatst bijgewerkt: december 2025
📋

Wat is de EU AI Act?

Een introductie tot 's werelds eerste AI-wetgeving

De EU AI Act is de eerste alomvattende wetgeving ter wereld die kunstmatige intelligentie reguleert. De wet is op 1 augustus 2024 in werking getreden en introduceert een risicogebaseerd kader dat AI-systemen indeelt in vier categorieën: onaanvaardbaar risico (verboden), hoog risico (streng gereguleerd), beperkt risico (transparantievereisten) en minimaal risico (vrij te gebruiken). Het doel is om innovatie te stimuleren terwijl fundamentele rechten en de veiligheid van EU-burgers worden beschermd.

🌍

Eerste ter wereld

De EU loopt voorop met 's werelds eerste alomvattende AI-regulering.

📊

Risicogebaseerd

Proportionele eisen op basis van het risico dat AI-systemen vormen.

🛡️

Bescherming

Beschermt fundamentele rechten terwijl innovatie wordt gestimuleerd.

💶

Hoge boetes

Tot €35 miljoen of 7% van de wereldwijde jaaromzet.

Gerelateerde artikelen

📖

Kernbegrippen

De fundamentele begrippen die je moet kennen

Om de EU AI Act te begrijpen, moet je eerst de kernbegrippen kennen. Een AI-systeem wordt gedefinieerd als een machinegebaseerd systeem dat, met verschillende niveaus van autonomie, output kan genereren zoals voorspellingen, aanbevelingen of beslissingen. De wet onderscheidt tussen providers (ontwikkelaars die AI op de markt brengen) en deployers (organisaties die AI gebruiken). Daarnaast zijn er specifieke definities voor GPAI (general-purpose AI) zoals ChatGPT.

🔧

AI-systeem definitie

Machinegebaseerd systeem dat met autonomie output kan genereren.

👤

Provider

Ontwikkelaar die het AI-systeem op de markt brengt.

🏭

Deployer

Organisatie die het AI-systeem professioneel inzet.

🌐

GPAI

General-purpose AI zoals grote taalmodellen.

Gerelateerde artikelen

⚠️

Risicoclassificatie

De vier risiconiveaus van AI-systemen

De EU AI Act hanteert een risicogebaseerde aanpak met vier categorieën. Onaanvaardbaar risico: verboden toepassingen zoals social scoring en manipulatieve AI. Hoog risico: streng gereguleerde systemen in kritieke sectoren zoals HR, onderwijs en zorg. Beperkt risico: systemen met transparantievereisten zoals chatbots. Minimaal risico: de meeste AI-toepassingen, vrij te gebruiken. De classificatie bepaalt welke verplichtingen gelden.

🚫

Onaanvaardbaar risico

Verboden: social scoring, manipulatieve AI, biometrische categorisering.

🔴

Hoog risico

Strenge eisen voor 8 sectoren: HR, onderwijs, zorg, etc.

🟡

Beperkt risico

Transparantievereisten voor chatbots en deepfakes.

🟢

Minimaal risico

Vrij te gebruiken: spamfilters, AI-games, etc.

Gerelateerde artikelen

Compliance & Governance

Hoe voldoe je aan de eisen?

Compliance met de EU AI Act vereist een systematische aanpak. Voor hoog-risico AI moet je een risicobeheersysteem implementeren, technische documentatie opstellen, data governance waarborgen en menselijk toezicht regelen. Daarnaast zijn er specifieke verplichtingen zoals de FRIA (Fundamental Rights Impact Assessment) en conformiteitsbeoordelingen. Een goede AI governance structuur binnen je organisatie is essentieel.

📝

Documentatie

Uitgebreide technische documentatie is verplicht voor hoog-risico AI.

⚙️

Risicobeheer

Een continu risicobeheersysteem gedurende de hele levenscyclus.

👥

Menselijk toezicht

Betekenisvolle menselijke controle over AI-beslissingen.

📊

FRIA & DPIA

Impact assessments voor fundamentele rechten en privacy.

Gerelateerde artikelen

🏢

Sector-specifieke Impact

Wat betekent de AI Act voor jouw sector?

De EU AI Act heeft verschillende impact per sector. De financiële sector krijgt te maken met overlap met EBA-richtlijnen. De publieke sector moet extra aandacht besteden aan fundamentele rechten. Startups en MKB krijgen proportionele eisen. Voor elke sector geldt: inventariseer je AI-systemen, bepaal de risicoklasse en start met compliance-voorbereiding.

💰

Financiële sector

Extra richtlijnen via EBA voor krediet- en verzekeringsbeslissingen.

🏛️

Publieke sector

Bijzondere aandacht voor fundamentele rechten en transparantie.

🚀

Startups & MKB

Proportionele eisen en toegang tot regulatory sandboxes.

🏥

Zorg & Onderwijs

Strenge eisen voor AI in diagnose en beoordeling.

Gerelateerde artikelen

👁️

Toezicht & Handhaving

Wie houdt toezicht en wat zijn de boetes?

De handhaving van de EU AI Act wordt gecoördineerd door het European AI Office op EU-niveau en nationale toezichthouders in elke lidstaat. In Nederland is dit de Algoritme Toezichthouder. De boetes zijn aanzienlijk: tot €35 miljoen of 7% van de wereldwijde jaaromzet voor verboden praktijken, tot €15 miljoen of 3% voor andere overtredingen. Incidentrapportage is verplicht bij ernstige storingen.

🇪🇺

AI Office

Het Europese AI Office coördineert de handhaving op EU-niveau.

🇳🇱

Nationale toezichthouder

Elke lidstaat wijst een nationale toezichthouder aan.

💸

Boetes

Tot €35 miljoen of 7% van de wereldwijde omzet.

📢

Incidentrapportage

Meldplicht binnen 15 dagen bij ernstige storingen.

Gerelateerde artikelen

🎓

AI Geletterdheid

De verplichte kenniseis vanaf februari 2025

Sinds 2 februari 2025 zijn alle organisaties die AI gebruiken verplicht om te zorgen dat hun personeel voldoende AI-geletterd is. Dit geldt voor iedereen die met AI werkt, ongeacht de risicoklasse van het AI-systeem. AI-geletterdheid omvat het vermogen om AI te begrijpen, kritisch te evalueren en verantwoord te gebruiken. Organisaties moeten beleid ontwikkelen en training aanbieden.

📅

Al van kracht

De verplichting geldt sinds 2 februari 2025.

👥

Breed bereik

Geldt voor álle organisaties die AI gebruiken, ongeacht grootte.

📚

Training vereist

Organisaties moeten personeel adequaat opleiden.

📋

Beleid nodig

Ontwikkel toetsbaar AI-geletterdheidsbeleid.

Gerelateerde artikelen

🤖

General-Purpose AI

Regels voor ChatGPT en andere grote modellen

GPAI (General-Purpose AI) zoals ChatGPT, Claude en Gemini krijgen specifieke regels vanaf augustus 2025. Providers moeten transparant zijn over trainingsdata, copyright respecteren en technische documentatie leveren. Voor modellen met systemisch risico (>10²⁵ FLOPs) gelden extra eisen. De EU werkt aan een gedragscode (Code of Practice) die providers moeten volgen.

📅

Augustus 2025

GPAI-regels worden van kracht op 2 augustus 2025.

📄

Documentatie

Technische documentatie en trainingsdata transparantie vereist.

©️

Copyright

Respect voor auteursrechten bij trainingsdata.

Systemisch risico

Extra eisen voor modellen >10²⁵ FLOPs.

Gerelateerde artikelen

Belangrijke Deadlines

Alle implementatiedata op een rij

Afgerond

EU AI Act in werking

De wet treedt officieel in werking.

Afgerond

Verboden AI & AI Literacy

Eerste verplichtingen van kracht.

Nu

GPAI-regels

Regels voor general-purpose AI.

Komend

Hoog-risico verplichtingen

Hoofdverplichtingen voor hoog-risico AI.

Komend

Volledige naleving

Transitieperiode eindigt.

Veelgestelde Vragen

Antwoorden op de meest voorkomende vragen over de EU AI Act

Klaar om te starten?

Ontdek hoe wij jouw organisatie kunnen helpen met EU AI Act compliance.

500+
Professionals getraind
50+
Organisaties geholpen