Een complete terugblik op het eerste Nederlandse AI Toezichtcongres
📅 10 december 2025 – Zo'n 750 toezichthouders, bedrijven en experts kwamen bijeen in het eerste AI Toezichtcongres, georganiseerd door de Rijksinspectie Digitale Infrastructuur (RDI) en de Autoriteit Persoonsgegevens (AP).
Het eerste AI Toezichtcongres van Nederland
Op 10 december 2025 vond een historisch moment plaats voor het Nederlandse AI-landschap: het allereerste AI Toezichtcongres. De RDI en AP, samen verantwoordelijk voor de coördinatie van AI-toezicht in Nederland, brachten bijna 750 deelnemers bij elkaar om te bespreken hoe de AI-verordening kan bijdragen aan een veilige én innovatieve inzet van AI.
De kern van het congres
"Samen aan zet" was het centrale thema. Toezicht op AI gaat niet alleen toezichthouders aan, maar de complete samenleving. Bij AI staan we voor vraagstukken die ons als burger allemaal raken: onze grondrechten, digitale veiligheid en gezondheid.
De openingssessie: Toezicht en innovatie hand in hand
Inspecteur-generaal Angeline van Dijk (RDI) opende het congres in gesprek met AP-bestuurder Katja Mür. De kernboodschap was duidelijk:
"Zie toezicht als je partner, die graag hand in hand wil lopen met de innovatieve partner uit het bedrijfsleven."
— Angeline van Dijk, Inspecteur-generaal RDI
Constantijn van Oranje, actief betrokken bij het tech-bedrijfsleven, stelde de vraag die veel aanwezigen bezighield: "Hoe voorkomen we dat we AI-toezicht 'dichtregelen' en ruimte voor innovatie wordt gesmoord?"
Het antwoord: risico-gebaseerd toezicht met oog voor verdienvermogen. De RDI kiest bewust niet voor het "bonnenboekje en afvinklijstje", maar gaat in gesprek met de markt via regulatory sandboxes.
De keynote speakers
Het congres opende met vijf invloedrijke keynotes van nationale en internationale sprekers.
Sven Stevenson (AP)
De AI Act in een notendop – De Directeur Coördinatie Algoritmes van de AP gaf een helder overzicht van de kern van de AI-verordening.
Michiel Boots (Min. EZ)
Overheidsbeleid en AI – De Directeur-Generaal Economie en Digitalisering schetste de visie van de overheid op AI-innovatie en regulering.
UNESCO
Supervising AI by Competent Authorities – Een praktische toolkit voor Europese toezichthouders, ontwikkeld in samenwerking met RDI.
Focco Vijselaar (VNO-NCW)
Het perspectief van het bedrijfsleven – De Algemeen Directeur van VNO-NCW sprak over de rol van ondernemers bij verantwoorde AI.
📥 Download alle keynote presentaties in onze Kennisbank onder AI Toezichtcongres.
De 11 deelsessies: van standaarden tot sandbox
Na de plenaire opening verspreidden deelnemers zich over elf interactieve deelsessies. Hier volgt per sessie een samenvatting van de belangrijkste inzichten.
Sessie 1: Standaarden en conformiteitsbeoordelingen
Sprekers: Isabel Barberá (AP), Dr. Theresa Marschall (RDI), Willy Tadema (RDI)
De sessie behandelde het "New Legislative Framework" – het Europese systeem van geharmoniseerde standaarden voor productregelgeving. De RDI draagt actief bij aan de ontwikkeling van AI-normen, net zoals eerder bij GSM, 5G en 6G.
Hoe werkt het?
Wanneer een AI-systeem voldoet aan geharmoniseerde standaarden die in het Publicatieblad van de EU staan, geldt een vermoeden van conformiteit. Dit vereenvoudigt de conformiteitsbeoordeling.
CEN/CENELEC standaarden in ontwikkeling:
| Standaard | Onderwerp | AI Act artikel |
|---|---|---|
| prEN 18228 | AI Risk Management | Art. 9 |
| prEN 18229-1 | Logging, transparantie, menselijk toezicht | Art. 12, 13, 14 |
| prEN 18229-2 | Accuracy en robustness | Art. 15 |
| prEN 18282 | Cybersecurity voor AI | Art. 15 |
| prEN 18283 | Bias management | Art. 10 |
| prEN 18286 | Quality Management System | Art. 17 |
Notified Bodies: Voor biometrische systemen en kritieke infrastructuur is beoordeling door een externe aangemelde instantie (geaccrediteerd door de RvA) verplicht, inclusief periodieke audits.
Sessie 2: Hoogrisico-AI in de financiële sector
Sprekers: Hans Brits (DNB), Mirèl ter Braak (AFM), Damian Borstel (AFM)
De financiële sector kent al strenge regelgeving via DNB en AFM. Met de AI-verordening komt daar een extra laag bij. Deze sessie richtte zich op de samenloop tussen bestaande financiële wetgeving en de nieuwe AI-eisen.
Hoogrisico in de financiële sector (Bijlage III, punt 5)
Twee specifieke AI-toepassingen zijn expliciet benoemd als hoogrisico:
- 5b: AI voor beoordeling van kredietwaardigheid of vaststellen van kredietscore
- 5c: AI voor risicobeoordeling en prijsstelling bij levens- en zorgverzekeringen
Waarom hoogrisico? Volgens overweging 58 van de AI-verordening:
- Kredietscores bepalen toegang tot financiële middelen en essentiële diensten (huisvesting, elektriciteit, telecom)
- Risicobeoordeling bij verzekeringen kan aanzienlijke gevolgen hebben voor het levensonderhoud
- Risico's op uitsluiting en discriminatie zijn significant
Samenloop met bestaande wetgeving: De AI-verordening verwijst expliciet naar Capital Requirements Directive, Consumer Credit Directive, Mortgage Credit Directive, Solvency II en Insurance Distribution Directive (IDD). Toezicht kan worden geïntegreerd in bestaande mechanismen.
Conformiteitsbeoordeling: Voor financiële AI-systemen geldt een interne controleprocedure (artikel 43 lid 2) – geen aanmeldende instantie nodig.
Sessie 3: Bescherming van grondrechten
Sprekers: Justin Hoegen Dijkhof, Naomi Appelman, Isabelle Schipper (AP)
"Grondrechtenbescherming is een van de hoofddoelen van de AI-verordening; alle betrokken actoren spelen een rol in het beschermen van grondrechten bij AI."
De sessie benadrukte dat grondrechtenbescherming geen afvinklijstje is, maar contextgebonden. Drie kernpunten:
- Alle grondrechten zijn potentieel betrokken
- Er zijn verschillende typen verplichtingen
- De concrete impact moet worden beoordeeld
Fundamental Rights Impact Assessment (FRIA) - Artikel 27
De FRIA is verplicht voor overheidslichamen en publieke dienstverleners die hoogrisico AI-systemen gebruiken. De beoordeling moet worden geregistreerd bij de markttoezichthouder.
Instrumenten voor grondrechtenbeoordeling:
Algoritmekader
Het Algoritmekader op Overheid.nl biedt richtlijnen voor verantwoord algoritmegebruik.
IAMA
Het Impact Assessment Mensenrechten & Algoritmes krijgt in 2026 een AI Act-update.
AIIA
Sectorale AI Impact Assessments voor specifieke domeinen.
Self-Assessment
AI Geletterdheid Self-Assessment voor organisaties.
Meer lezen: Bekijk onze DPIA vs FRIA vergelijking voor een praktische uitleg van de verschillen.
Sessie 4: AI-platforms en consumentenbelang
Sprekers: Kari Spijker (AI/Algoritme Governance Specialist, ACM), Stefan Haas (Strategisch Adviseur Digitale Economie, ACM), Menno Israel (Directeur Taskforce Data en Algoritmen, ACM)
De ACM-missie: markten goed laten werken voor alle mensen en bedrijven. Deze sessie behandelde hoe de ACM omgaat met AI in platformmarkten, consumentenbescherming en mededinging.
ACM Digitale Economie - prioriteiten
- Optreden tegen misbruik, misleiding en manipulatie bij online verkoop en gaming
- Toezicht op desinformatie en haat zaaien op sociale media (samen met EU-toezichthouders)
- Aanpakken van verslavende ontwerpen, vooral voor minderjarigen
- Stimuleren van een veilige en betrouwbare data-economie
Relevante wetgeving waar ACM op toeziet:
| Regelgeving | Focus |
|---|---|
| DMA | Digital Markets Act - platformregulering |
| DSA | Digital Services Act - algoritmische transparantie |
| DGA | Data Governance Act - data-economie |
| DA+ | Data Act - datadeling en -toegang |
Taskforce Data en Algoritmen (TDA): De ACM heeft een team van 40 medewerkers (data scientists, juristen, economen) dat toezicht houdt op markten waar data en algoritmen een rol spelen.
Sessie 5: AI en Cybersecurity
Sprekers: Max Landkroon (RDI), Bob van der Meulen (RDI)
De RDI is toezichthouder op meerdere cybersecurity-wetgevingskaders. Deze sessie behandelde de vraag: "Hoe verhoudt AI-toezicht zich tot cybersecurity-toezicht?" Het antwoord: ze zijn onlosmakelijk verbonden.
Stelling uit de sessie
">95% van alle AI-producten/diensten valt niet onder de AI Act, maar wel onder 'toezicht op AI' via open normen in andere wetgeving zoals AVG, NIS-2 en GPSR."
Cybersecurity-eisen in AI-gerelateerde wetgeving:
AI Act (Art. 15)
Hoogrisico systemen moeten "een passend niveau van cyberbeveiliging bieden."
NIS-2
Passende technische en organisatorische maatregelen voor netwerk- en informatiesystemen.
AVG (Art. 32)
Passende beveiliging van persoonsgegevens bij verwerking.
CRA
Cyber Resilience Act - cybersecurity voor connected products.
Waslijst aan wetgeving: De RDI presenteerde een overzicht van 17+ wetten met cybersecurity-eisen: DORA, Data Act, eIDAS 2.0, NIS-2, AI Act, CRA, Cyber Solidarity Act, RED, AVG en meer. Toezicht op AI is ook toezicht op cybersecurity!
Sessie 6: Verder bouwen aan AI-geletterdheid
Presentatie door: Directie Coördinatie Algoritmes (AP)
Dit is nu verplicht! Sinds 2 februari 2025 moeten alle organisaties die AI gebruiken of aanbieden zorgen voor voldoende AI-geletterdheid bij hun personeel (Artikel 4 AI-verordening).
Artikel 4 AI-verordening - letterlijke tekst
"Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt."
Wat voldoende is, is niet voorgeschreven – vaardigheden en kennis verschillen per sector en situatie. De sessie behandelde Europese ontwikkelingen waaronder het Living Repository van het EU AI Office en Q&A van de Commissie.
De vier pijlers van AI-geletterdheid:
Technisch begrip
Wat is AI? Basiskennis van hoe AI-systemen werken, hun mogelijkheden en beperkingen.
Risicobewustzijn
Wat kan misgaan? Begrip van potentiële risico's, bias, en onbedoelde gevolgen.
Ethisch handelen
Wat is verantwoord? Ethische overwegingen bij het gebruik van AI in de praktijk.
Regelgeving
Wat zijn de regels? Kennis van relevante wet- en regelgeving waaronder de AI Act.
Wie moet worden getraind?
| Rol | Wat moeten ze weten? | Niveau |
|---|---|---|
| Bestuurders | Strategische impact, governance, aansprakelijkheid | Strategisch |
| Managers | Risicomanagement, compliance, teamaansturing | Tactisch |
| Gebruikers | Dagelijks gebruik, herkennen van fouten, escalatie | Operationeel |
| Ontwikkelaars | Technische eisen, testing, documentatie | Technisch |
Test jezelf: Doe onze AI Geletterdheid Test om je eigen kennisniveau te meten.
Sessie 7: Internet of Agents
Sprekers: Timon Daniels (AI Safety & Security Lab, RDI), Lara van Zuilen (AISSL, RDI)
Het AI Safety & Security Lab (AISSL) van de RDI houdt zich bezig met complexe en nieuwe AI-risico's. In deze sessie werd het concept "Internet of Agents" geïntroduceerd als een nieuw dreigingslandschap.
Wat is het Internet of Agents?
De evolutie van enkelvoudige AI-agents naar multi-agent systemen die:
- Samenwerken tussen systemen (over internet)
- Dynamisch organiseren zonder vooraf bepaalde structuur
- Autonoom beslissingen nemen zonder menselijke tussenkomst
Voorbeelden van agents in de praktijk:
- Email-agents
- Coding-assistenten
- Recruiters
- Smart home systemen
- Klantenservice-bots
Nieuw dreigingslandschap: Met ~360 miljoen bedrijven en ~2,5 miljard huishoudens die potentieel agents gaan inzetten, ontstaan nieuwe risico's:
- Misinformatie op grote schaal
- Overbelasting van systemen
- Cyberveiligheid - gebrek aan standaarden en protocollen voor agent-to-agent communicatie
Sessie 8: Werving en selectie als praktijkvoorbeeld
Presentatie door: Directie Coördinatie Algoritmes (AP)
AI in HR is een van de meest besproken hoogrisico-toepassingen onder de AI Act (Bijlage III). Deze sessie behandelde de gedeelde verantwoordelijkheid tussen aanbieders en gebruikers in de AI-waardeketen.
Verplichtingen voor aanbieders van hoogrisico W&S AI
- Voldoen aan essentiële vereisten: risicobeheer, datagovernance, documentatie
- Conformiteitsbeoordeling (norm prEN 18286 nu open voor commentaar)
- Registratie van AI-systeem
- Aanbrengen van CE-markering
🚫 Verboden
AI die emoties detecteert tijdens sollicitatiegesprekken valt onder de verboden praktijken sinds 2 februari 2025.
⚠️ Hoogrisico
Geautomatiseerde CV-screening en rankingsystemen voor kandidaten vereisen conformiteitsbeoordeling.
Wat is toegestaan, wat niet?
| AI-toepassing | Classificatie | Wat moet je doen? |
|---|---|---|
| Emotieherkenning in interviews | Verboden | Direct stoppen |
| CV-screening & matching | Hoogrisico | Conformiteitsbeoordeling verplicht |
| Personeelsverloop voorspelling | Hoogrisico | Conformiteitsbeoordeling verplicht |
| Rooster-optimalisatie | Laag risico | Geen specifieke eisen |
Meer lezen: Bekijk onze HR & Werkgelegenheid sectorpagina.
Sessie 9: Wat is een AI-systeem?
Format: Interactieve workshop
Deze sessie ging dieper in op de definitie van een AI-systeem (Artikel 3, lid 1). Deelnemers werkten samen aan een casus over een recidive-voorspellingssysteem om de definitie-elementen te doorgronden.
Onderschatting in de markt: De sessie benadrukte dat veel organisaties de reikwijdte van de AI-verordening onderschatten. Beoordeling gebeurt per geval, met aandacht voor de volledige levenscyclus van AI-systemen.
De 8 elementen van de AI-systeem definitie
Een AI-systeem is een op een machine gebaseerd systeem met expliciete of impliciete doelen, dat met autonomie werkt, aanpassingsvermogen kan vertonen, input verwerkt via inferentievermogen naar output, die invloed heeft op fysieke of virtuele omgevingen.
De kernvragen om te bepalen of iets een AI-systeem is:
Autonomie?
Werkt het systeem zelfstandig of volledig gestuurd door vaste regels?
Aanpassing?
Leert het systeem of past het zich aan na deployment?
Inferentie?
Leidt het systeem zelf conclusies af uit data?
Output?
Genereert het voorspellingen, besluiten of content?
Voorbeelden uit de sessie:
| Systeem | AI-systeem? | Waarom? |
|---|---|---|
| Spamfilter met ML | Ja | Leert patronen, maakt voorspellingen |
| Excel spreadsheet | Nee | Formules, geen inferentie |
| Chatbot met scripts | Nee | Vaste regels, geen leren |
| ChatGPT-integratie | Ja | LLM, genereert content op basis van inferentie |
Sessie 10: Regulatory Sandbox in de AI-verordening
Sprekers: Ewout van der Kleij (AP), Alany Reyes Pichardo (AP), Tim van den Belt (RDI)
Wat verplicht de AI Act? (Artikel 57)
- Lid 1: Elke lidstaat moet vóór augustus 2026 een sandbox oprichten
- Lid 5: De sandbox vergemakkelijkt het ontwikkelen, valideren en op de markt brengen van AI-systemen
- Lid 6: De toezichthouder moet begeleiding, toezicht en ondersteuning verstrekken
Vier doelen van de sandbox:
Rechtszekerheid
Duidelijkheid vooraf over welke regels van toepassing zijn.
Good practices
Ontwikkelen van best practices en voorlichting voor de markt.
Regulatory learning
Toezichthouders leren van innovatieve toepassingen.
Markttoegang
Innovatie en toegang tot Europese markt vergemakkelijken.
NL Regulatory Sandbox: Nederland volgt artikel 57 met een algemene AI Regulatory Sandbox via één loket. Toezichthouders helpen bij juridische en technische vraagstukken, maar ondersteunen niet bij de ontwikkeling zelf.
Relevante blog: Lees meer over AI Regulatory Sandboxes in Nederland.
Sessie 11: Generatieve AI
Presentatie door: Directie Coördinatie Algoritmes (AP)
De AP presenteerde hun visie op generatieve AI: "Verantwoord Vooruit". De sessie behandelde de technologie, de AI-verordening regels voor GPAI-modellen, de Code of Practice, en transparantievereisten.
Statistiek uit de sessie
77% van de Nederlanders verwacht dat generatieve AI hun werk makkelijker en leuker gaat maken.
Toepassingen en trends van generatieve AI:
- AI-agents als basis voor beeld en geluid
- Sociale actor en 24/7 persoonlijke assistent
- Onderzoeker en zoekmachine
- Coderen en automatisering
De GPAI-verplichtingen (vanaf augustus 2025):
| Verplichting | Wat houdt dit in? | Voor wie? |
|---|---|---|
| Technische documentatie | Beschrijving van capaciteiten, beperkingen en risico's | Alle GPAI-providers |
| Trainingsdata-samenvatting | Publiek overzicht van gebruikte trainingsdata | Alle GPAI-providers |
| Copyright-beleid | Respect voor auteursrechten, opt-out mechanisme | Alle GPAI-providers |
| Systeemrisico-evaluatie | Uitgebreide testing, red teaming, incident reporting | Alleen high-impact modellen |
Let op voor deployers: Als je ChatGPT, Claude of andere GPAI-modellen integreert in je eigen producten, heb je ook verplichtingen. Denk aan transparantie naar eindgebruikers en het markeren van AI-gegenereerde content.
Dieper duiken: Bekijk onze GPAI Gids voor een complete uitleg.
Internationale samenwerking: UNESCO toolkit
Een bijzondere highlight was de presentatie van de UNESCO toolkit "Supervising AI by Competent Authorities". Deze praktische gids, mede ontwikkeld door RDI, helpt toezichthouders wereldwijd bij het inrichten van AI-toezicht.
"Sterke internationale samenwerking is onmisbaar. Als toezichthouders moeten we 'met één mond praten', want veel AI beperkt zich niet tot een sector of een land."
— RDI
De RDI speelt een leidende rol als voorzitter van de Europese werkgroep van toezichthouders en was betrokken bij de oprichting van het Global Network of AI Supervision (GNAIS) in Bangkok.
Conclusie: Samen aan zet
Het AI Toezichtcongres 2025 maakte één ding duidelijk: de implementatie van de AI Act is een gezamenlijke inspanning. Toezichthouders, bedrijven, experts en burgers moeten samenwerken om AI veilig én innovatief te houden.
De 5 kernboodschappen van het congres:
- Partner, geen politieagent – Toezicht wil samenwerken, niet alleen handhaven
- Context is alles – Dezelfde AI-technologie vraagt andere regels afhankelijk van de toepassing
- Sandboxes bieden kansen – Innoveren met begeleiding wordt mogelijk
- Internationale harmonisatie – Nederland speelt een leidende rol in Europa
- Grondrechten centraal – Technisch én ethisch toezicht gaan hand in hand
Download alle presentaties
Alle presentaties die openbaar mogen worden gedeeld zijn beschikbaar in onze Kennisbank:
📥 AI Toezichtcongres 2025 - Alle documenten
Download alle keynotes en deelsessie-presentaties direct vanuit onze Kennisbank.
Bekijk alle presentaties →
Bronnen
🎯 Hulp nodig bij AI compliance? Plan een gratis gesprek om te bespreken hoe jouw organisatie de AI Act implementeert.