Responsible AI Platform

AI Toezichtcongres 2025: Alle inzichten op een rij

··23 min leestijd
Delen:
Engelse versie niet beschikbaar

Een complete terugblik op het eerste Nederlandse AI Toezichtcongres

📅 10 december 2025 – Zo'n 750 toezichthouders, bedrijven en experts kwamen bijeen in het eerste AI Toezichtcongres, georganiseerd door de Rijksinspectie Digitale Infrastructuur (RDI) en de Autoriteit Persoonsgegevens (AP).

Het eerste AI Toezichtcongres van Nederland

Op 10 december 2025 vond een historisch moment plaats voor het Nederlandse AI-landschap: het allereerste AI Toezichtcongres. De RDI en AP, samen verantwoordelijk voor de coördinatie van AI-toezicht in Nederland, brachten bijna 750 deelnemers bij elkaar om te bespreken hoe de AI-verordening kan bijdragen aan een veilige én innovatieve inzet van AI.

De kern van het congres

"Samen aan zet" was het centrale thema. Toezicht op AI gaat niet alleen toezichthouders aan, maar de complete samenleving. Bij AI staan we voor vraagstukken die ons als burger allemaal raken: onze grondrechten, digitale veiligheid en gezondheid.

De openingssessie: Toezicht en innovatie hand in hand

Inspecteur-generaal Angeline van Dijk (RDI) opende het congres in gesprek met AP-bestuurder Katja Mür. De kernboodschap was duidelijk:

"Zie toezicht als je partner, die graag hand in hand wil lopen met de innovatieve partner uit het bedrijfsleven."

Angeline van Dijk, Inspecteur-generaal RDI

Constantijn van Oranje, actief betrokken bij het tech-bedrijfsleven, stelde de vraag die veel aanwezigen bezighield: "Hoe voorkomen we dat we AI-toezicht 'dichtregelen' en ruimte voor innovatie wordt gesmoord?"

Het antwoord: risico-gebaseerd toezicht met oog voor verdienvermogen. De RDI kiest bewust niet voor het "bonnenboekje en afvinklijstje", maar gaat in gesprek met de markt via regulatory sandboxes.


De keynote speakers

Het congres opende met vijf invloedrijke keynotes van nationale en internationale sprekers.

1

Sven Stevenson (AP)

De AI Act in een notendop – De Directeur Coördinatie Algoritmes van de AP gaf een helder overzicht van de kern van de AI-verordening.

2

Michiel Boots (Min. EZ)

Overheidsbeleid en AI – De Directeur-Generaal Economie en Digitalisering schetste de visie van de overheid op AI-innovatie en regulering.

3

UNESCO

Supervising AI by Competent Authorities – Een praktische toolkit voor Europese toezichthouders, ontwikkeld in samenwerking met RDI.

4

Focco Vijselaar (VNO-NCW)

Het perspectief van het bedrijfsleven – De Algemeen Directeur van VNO-NCW sprak over de rol van ondernemers bij verantwoorde AI.

📥 Download alle keynote presentaties in onze Kennisbank onder AI Toezichtcongres.


De 11 deelsessies: van standaarden tot sandbox

Na de plenaire opening verspreidden deelnemers zich over elf interactieve deelsessies. Hier volgt per sessie een samenvatting van de belangrijkste inzichten.


Sessie 1: Standaarden en conformiteitsbeoordelingen

Sprekers: Isabel Barberá (AP), Dr. Theresa Marschall (RDI), Willy Tadema (RDI)

De sessie behandelde het "New Legislative Framework" – het Europese systeem van geharmoniseerde standaarden voor productregelgeving. De RDI draagt actief bij aan de ontwikkeling van AI-normen, net zoals eerder bij GSM, 5G en 6G.

Hoe werkt het?

Wanneer een AI-systeem voldoet aan geharmoniseerde standaarden die in het Publicatieblad van de EU staan, geldt een vermoeden van conformiteit. Dit vereenvoudigt de conformiteitsbeoordeling.

CEN/CENELEC standaarden in ontwikkeling:

StandaardOnderwerpAI Act artikel
prEN 18228AI Risk ManagementArt. 9
prEN 18229-1Logging, transparantie, menselijk toezichtArt. 12, 13, 14
prEN 18229-2Accuracy en robustnessArt. 15
prEN 18282Cybersecurity voor AIArt. 15
prEN 18283Bias managementArt. 10
prEN 18286Quality Management SystemArt. 17

Notified Bodies: Voor biometrische systemen en kritieke infrastructuur is beoordeling door een externe aangemelde instantie (geaccrediteerd door de RvA) verplicht, inclusief periodieke audits.


Sessie 2: Hoogrisico-AI in de financiële sector

Sprekers: Hans Brits (DNB), Mirèl ter Braak (AFM), Damian Borstel (AFM)

De financiële sector kent al strenge regelgeving via DNB en AFM. Met de AI-verordening komt daar een extra laag bij. Deze sessie richtte zich op de samenloop tussen bestaande financiële wetgeving en de nieuwe AI-eisen.

Hoogrisico in de financiële sector (Bijlage III, punt 5)

Twee specifieke AI-toepassingen zijn expliciet benoemd als hoogrisico:

  • 5b: AI voor beoordeling van kredietwaardigheid of vaststellen van kredietscore
  • 5c: AI voor risicobeoordeling en prijsstelling bij levens- en zorgverzekeringen

Waarom hoogrisico? Volgens overweging 58 van de AI-verordening:

  • Kredietscores bepalen toegang tot financiële middelen en essentiële diensten (huisvesting, elektriciteit, telecom)
  • Risicobeoordeling bij verzekeringen kan aanzienlijke gevolgen hebben voor het levensonderhoud
  • Risico's op uitsluiting en discriminatie zijn significant

Samenloop met bestaande wetgeving: De AI-verordening verwijst expliciet naar Capital Requirements Directive, Consumer Credit Directive, Mortgage Credit Directive, Solvency II en Insurance Distribution Directive (IDD). Toezicht kan worden geïntegreerd in bestaande mechanismen.

Conformiteitsbeoordeling: Voor financiële AI-systemen geldt een interne controleprocedure (artikel 43 lid 2) – geen aanmeldende instantie nodig.


Sessie 3: Bescherming van grondrechten

Sprekers: Justin Hoegen Dijkhof, Naomi Appelman, Isabelle Schipper (AP)

"Grondrechtenbescherming is een van de hoofddoelen van de AI-verordening; alle betrokken actoren spelen een rol in het beschermen van grondrechten bij AI."

De sessie benadrukte dat grondrechtenbescherming geen afvinklijstje is, maar contextgebonden. Drie kernpunten:

  1. Alle grondrechten zijn potentieel betrokken
  2. Er zijn verschillende typen verplichtingen
  3. De concrete impact moet worden beoordeeld

Fundamental Rights Impact Assessment (FRIA) - Artikel 27

De FRIA is verplicht voor overheidslichamen en publieke dienstverleners die hoogrisico AI-systemen gebruiken. De beoordeling moet worden geregistreerd bij de markttoezichthouder.

Instrumenten voor grondrechtenbeoordeling:

1

Algoritmekader

Het Algoritmekader op Overheid.nl biedt richtlijnen voor verantwoord algoritmegebruik.

2

IAMA

Het Impact Assessment Mensenrechten & Algoritmes krijgt in 2026 een AI Act-update.

3

AIIA

Sectorale AI Impact Assessments voor specifieke domeinen.

4

Self-Assessment

AI Geletterdheid Self-Assessment voor organisaties.

Meer lezen: Bekijk onze DPIA vs FRIA vergelijking voor een praktische uitleg van de verschillen.


Sessie 4: AI-platforms en consumentenbelang

Sprekers: Kari Spijker (AI/Algoritme Governance Specialist, ACM), Stefan Haas (Strategisch Adviseur Digitale Economie, ACM), Menno Israel (Directeur Taskforce Data en Algoritmen, ACM)

De ACM-missie: markten goed laten werken voor alle mensen en bedrijven. Deze sessie behandelde hoe de ACM omgaat met AI in platformmarkten, consumentenbescherming en mededinging.

ACM Digitale Economie - prioriteiten

  • Optreden tegen misbruik, misleiding en manipulatie bij online verkoop en gaming
  • Toezicht op desinformatie en haat zaaien op sociale media (samen met EU-toezichthouders)
  • Aanpakken van verslavende ontwerpen, vooral voor minderjarigen
  • Stimuleren van een veilige en betrouwbare data-economie

Relevante wetgeving waar ACM op toeziet:

RegelgevingFocus
DMADigital Markets Act - platformregulering
DSADigital Services Act - algoritmische transparantie
DGAData Governance Act - data-economie
DA+Data Act - datadeling en -toegang

Taskforce Data en Algoritmen (TDA): De ACM heeft een team van 40 medewerkers (data scientists, juristen, economen) dat toezicht houdt op markten waar data en algoritmen een rol spelen.


Sessie 5: AI en Cybersecurity

Sprekers: Max Landkroon (RDI), Bob van der Meulen (RDI)

De RDI is toezichthouder op meerdere cybersecurity-wetgevingskaders. Deze sessie behandelde de vraag: "Hoe verhoudt AI-toezicht zich tot cybersecurity-toezicht?" Het antwoord: ze zijn onlosmakelijk verbonden.

Stelling uit de sessie

">95% van alle AI-producten/diensten valt niet onder de AI Act, maar wel onder 'toezicht op AI' via open normen in andere wetgeving zoals AVG, NIS-2 en GPSR."

Cybersecurity-eisen in AI-gerelateerde wetgeving:

1

AI Act (Art. 15)

Hoogrisico systemen moeten "een passend niveau van cyberbeveiliging bieden."

2

NIS-2

Passende technische en organisatorische maatregelen voor netwerk- en informatiesystemen.

3

AVG (Art. 32)

Passende beveiliging van persoonsgegevens bij verwerking.

4

CRA

Cyber Resilience Act - cybersecurity voor connected products.

Waslijst aan wetgeving: De RDI presenteerde een overzicht van 17+ wetten met cybersecurity-eisen: DORA, Data Act, eIDAS 2.0, NIS-2, AI Act, CRA, Cyber Solidarity Act, RED, AVG en meer. Toezicht op AI is ook toezicht op cybersecurity!


Sessie 6: Verder bouwen aan AI-geletterdheid

Presentatie door: Directie Coördinatie Algoritmes (AP)

Dit is nu verplicht! Sinds 2 februari 2025 moeten alle organisaties die AI gebruiken of aanbieden zorgen voor voldoende AI-geletterdheid bij hun personeel (Artikel 4 AI-verordening).

Artikel 4 AI-verordening - letterlijke tekst

"Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt."

Wat voldoende is, is niet voorgeschreven – vaardigheden en kennis verschillen per sector en situatie. De sessie behandelde Europese ontwikkelingen waaronder het Living Repository van het EU AI Office en Q&A van de Commissie.

De vier pijlers van AI-geletterdheid:

1

Technisch begrip

Wat is AI? Basiskennis van hoe AI-systemen werken, hun mogelijkheden en beperkingen.

2

Risicobewustzijn

Wat kan misgaan? Begrip van potentiële risico's, bias, en onbedoelde gevolgen.

3

Ethisch handelen

Wat is verantwoord? Ethische overwegingen bij het gebruik van AI in de praktijk.

4

Regelgeving

Wat zijn de regels? Kennis van relevante wet- en regelgeving waaronder de AI Act.

Wie moet worden getraind?

RolWat moeten ze weten?Niveau
BestuurdersStrategische impact, governance, aansprakelijkheidStrategisch
ManagersRisicomanagement, compliance, teamaansturingTactisch
GebruikersDagelijks gebruik, herkennen van fouten, escalatieOperationeel
OntwikkelaarsTechnische eisen, testing, documentatieTechnisch

Test jezelf: Doe onze AI Geletterdheid Test om je eigen kennisniveau te meten.


Sessie 7: Internet of Agents

Sprekers: Timon Daniels (AI Safety & Security Lab, RDI), Lara van Zuilen (AISSL, RDI)

Het AI Safety & Security Lab (AISSL) van de RDI houdt zich bezig met complexe en nieuwe AI-risico's. In deze sessie werd het concept "Internet of Agents" geïntroduceerd als een nieuw dreigingslandschap.

Wat is het Internet of Agents?

De evolutie van enkelvoudige AI-agents naar multi-agent systemen die:

  • Samenwerken tussen systemen (over internet)
  • Dynamisch organiseren zonder vooraf bepaalde structuur
  • Autonoom beslissingen nemen zonder menselijke tussenkomst

Voorbeelden van agents in de praktijk:

  • Email-agents
  • Coding-assistenten
  • Recruiters
  • Smart home systemen
  • Klantenservice-bots

Nieuw dreigingslandschap: Met ~360 miljoen bedrijven en ~2,5 miljard huishoudens die potentieel agents gaan inzetten, ontstaan nieuwe risico's:

  • Misinformatie op grote schaal
  • Overbelasting van systemen
  • Cyberveiligheid - gebrek aan standaarden en protocollen voor agent-to-agent communicatie

Sessie 8: Werving en selectie als praktijkvoorbeeld

Presentatie door: Directie Coördinatie Algoritmes (AP)

AI in HR is een van de meest besproken hoogrisico-toepassingen onder de AI Act (Bijlage III). Deze sessie behandelde de gedeelde verantwoordelijkheid tussen aanbieders en gebruikers in de AI-waardeketen.

Verplichtingen voor aanbieders van hoogrisico W&S AI

  • Voldoen aan essentiële vereisten: risicobeheer, datagovernance, documentatie
  • Conformiteitsbeoordeling (norm prEN 18286 nu open voor commentaar)
  • Registratie van AI-systeem
  • Aanbrengen van CE-markering
1

🚫 Verboden

AI die emoties detecteert tijdens sollicitatiegesprekken valt onder de verboden praktijken sinds 2 februari 2025.

2

⚠️ Hoogrisico

Geautomatiseerde CV-screening en rankingsystemen voor kandidaten vereisen conformiteitsbeoordeling.

Wat is toegestaan, wat niet?

AI-toepassingClassificatieWat moet je doen?
Emotieherkenning in interviewsVerbodenDirect stoppen
CV-screening & matchingHoogrisicoConformiteitsbeoordeling verplicht
Personeelsverloop voorspellingHoogrisicoConformiteitsbeoordeling verplicht
Rooster-optimalisatieLaag risicoGeen specifieke eisen

Meer lezen: Bekijk onze HR & Werkgelegenheid sectorpagina.


Sessie 9: Wat is een AI-systeem?

Format: Interactieve workshop

Deze sessie ging dieper in op de definitie van een AI-systeem (Artikel 3, lid 1). Deelnemers werkten samen aan een casus over een recidive-voorspellingssysteem om de definitie-elementen te doorgronden.

Onderschatting in de markt: De sessie benadrukte dat veel organisaties de reikwijdte van de AI-verordening onderschatten. Beoordeling gebeurt per geval, met aandacht voor de volledige levenscyclus van AI-systemen.

De 8 elementen van de AI-systeem definitie

Een AI-systeem is een op een machine gebaseerd systeem met expliciete of impliciete doelen, dat met autonomie werkt, aanpassingsvermogen kan vertonen, input verwerkt via inferentievermogen naar output, die invloed heeft op fysieke of virtuele omgevingen.

De kernvragen om te bepalen of iets een AI-systeem is:

1

Autonomie?

Werkt het systeem zelfstandig of volledig gestuurd door vaste regels?

2

Aanpassing?

Leert het systeem of past het zich aan na deployment?

3

Inferentie?

Leidt het systeem zelf conclusies af uit data?

4

Output?

Genereert het voorspellingen, besluiten of content?

Voorbeelden uit de sessie:

SysteemAI-systeem?Waarom?
Spamfilter met MLJaLeert patronen, maakt voorspellingen
Excel spreadsheetNeeFormules, geen inferentie
Chatbot met scriptsNeeVaste regels, geen leren
ChatGPT-integratieJaLLM, genereert content op basis van inferentie

Sessie 10: Regulatory Sandbox in de AI-verordening

Sprekers: Ewout van der Kleij (AP), Alany Reyes Pichardo (AP), Tim van den Belt (RDI)

Wat verplicht de AI Act? (Artikel 57)

  • Lid 1: Elke lidstaat moet vóór augustus 2026 een sandbox oprichten
  • Lid 5: De sandbox vergemakkelijkt het ontwikkelen, valideren en op de markt brengen van AI-systemen
  • Lid 6: De toezichthouder moet begeleiding, toezicht en ondersteuning verstrekken

Vier doelen van de sandbox:

1

Rechtszekerheid

Duidelijkheid vooraf over welke regels van toepassing zijn.

2

Good practices

Ontwikkelen van best practices en voorlichting voor de markt.

3

Regulatory learning

Toezichthouders leren van innovatieve toepassingen.

4

Markttoegang

Innovatie en toegang tot Europese markt vergemakkelijken.

NL Regulatory Sandbox: Nederland volgt artikel 57 met een algemene AI Regulatory Sandbox via één loket. Toezichthouders helpen bij juridische en technische vraagstukken, maar ondersteunen niet bij de ontwikkeling zelf.

Relevante blog: Lees meer over AI Regulatory Sandboxes in Nederland.


Sessie 11: Generatieve AI

Presentatie door: Directie Coördinatie Algoritmes (AP)

De AP presenteerde hun visie op generatieve AI: "Verantwoord Vooruit". De sessie behandelde de technologie, de AI-verordening regels voor GPAI-modellen, de Code of Practice, en transparantievereisten.

Statistiek uit de sessie

77% van de Nederlanders verwacht dat generatieve AI hun werk makkelijker en leuker gaat maken.

Toepassingen en trends van generatieve AI:

  • AI-agents als basis voor beeld en geluid
  • Sociale actor en 24/7 persoonlijke assistent
  • Onderzoeker en zoekmachine
  • Coderen en automatisering

De GPAI-verplichtingen (vanaf augustus 2025):

VerplichtingWat houdt dit in?Voor wie?
Technische documentatieBeschrijving van capaciteiten, beperkingen en risico'sAlle GPAI-providers
Trainingsdata-samenvattingPubliek overzicht van gebruikte trainingsdataAlle GPAI-providers
Copyright-beleidRespect voor auteursrechten, opt-out mechanismeAlle GPAI-providers
Systeemrisico-evaluatieUitgebreide testing, red teaming, incident reportingAlleen high-impact modellen

Let op voor deployers: Als je ChatGPT, Claude of andere GPAI-modellen integreert in je eigen producten, heb je ook verplichtingen. Denk aan transparantie naar eindgebruikers en het markeren van AI-gegenereerde content.

Dieper duiken: Bekijk onze GPAI Gids voor een complete uitleg.


Internationale samenwerking: UNESCO toolkit

Een bijzondere highlight was de presentatie van de UNESCO toolkit "Supervising AI by Competent Authorities". Deze praktische gids, mede ontwikkeld door RDI, helpt toezichthouders wereldwijd bij het inrichten van AI-toezicht.

"Sterke internationale samenwerking is onmisbaar. Als toezichthouders moeten we 'met één mond praten', want veel AI beperkt zich niet tot een sector of een land."

RDI

De RDI speelt een leidende rol als voorzitter van de Europese werkgroep van toezichthouders en was betrokken bij de oprichting van het Global Network of AI Supervision (GNAIS) in Bangkok.


Conclusie: Samen aan zet

Het AI Toezichtcongres 2025 maakte één ding duidelijk: de implementatie van de AI Act is een gezamenlijke inspanning. Toezichthouders, bedrijven, experts en burgers moeten samenwerken om AI veilig én innovatief te houden.

De 5 kernboodschappen van het congres:

  1. Partner, geen politieagent – Toezicht wil samenwerken, niet alleen handhaven
  2. Context is alles – Dezelfde AI-technologie vraagt andere regels afhankelijk van de toepassing
  3. Sandboxes bieden kansen – Innoveren met begeleiding wordt mogelijk
  4. Internationale harmonisatie – Nederland speelt een leidende rol in Europa
  5. Grondrechten centraal – Technisch én ethisch toezicht gaan hand in hand

Download alle presentaties

Alle presentaties die openbaar mogen worden gedeeld zijn beschikbaar in onze Kennisbank:

📥 AI Toezichtcongres 2025 - Alle documenten

Download alle keynotes en deelsessie-presentaties direct vanuit onze Kennisbank.

Bekijk alle presentaties →


Bronnen

Rijksinspectie Digitale Infrastructuur: AI Toezichtcongres 2025 - Verslag (december 2025)
RDI: Presentaties AI Toezichtcongres (december 2025)

🎯 Hulp nodig bij AI compliance? Plan een gratis gesprek om te bespreken hoe jouw organisatie de AI Act implementeert.