Responsible AI Platform

Nederlandse AI-Sandbox 2025: Hoe Het Werkt & Voordelen

··8 min leestijd

De Nederlandse regering heeft in augustus 2025 het vormvoorstel voor de nationale AI-sandbox gepubliceerd, opgesteld door de Autoriteit Persoonsgegevens (AP) en de Rijksinspectie Digitale Infrastructuur (RDI), in samenwerking met andere toezichthouders en relevante ministeries. Dit voorstel bouwt voort op een verkenning in 2023 en een pilot in 2024 waar 25 organisaties met 40 vragen hebben geparticipeerd. De sandbox is geen keuzeinstrument voor innovateurs; het is een door de EU AI Act verplicht mechanisme, met artikel 57 als juridische basis en augustus 2026 als deadline voor operationalisering.

Voor organisaties die AI-systemen ontwikkelen of implementeren, is de sandbox potentieel waardevolal niet als een versneller van go-to-market maar als een manier om regelgevingsonzekerheid weg te nemen in een context waarin toezichthouders zelf nog aan het leren zijn wat bepaalde bepalingen betekenen.

Waarom sandboxen bestaan

De volgende twee jaren zal veel jurisprudentie, regelgevingsrichtlijn en praktische ervaring zich vormen rond hoe annex III van de AI Act moet worden geïnterpreteerd, wat "representatieve data" betekent, hoeveel menselijk toezicht "effectief" is onder artikel 14. Organisaties die systemen bouwen voordat die vragen zijn beantwoord, nemen risico: hun interpretatie kan later blijken niet te kloppen. De sandbox biedt een weg om die onzekerheid beperkt te houden.

Aanbieders kunnen de sandbox gebruiken om regelgevingsvragen te stellen en begeleiding te krijgen van toezichthouders voordat zij de volledige conformiteitsbeoordeling ondergaan. Toezichthouders kunnen via de sandbox leren hoe bepaalde bepalingen in de praktijk functioneren, wat helpt bij het opstellen van richtsnoeren. Beide voordelen zijn wederzijds.

De sandbox biedt geen vrijbrief, geen sanctie-immuniteit, geen uitstel van compliance-deadlines. Het biedt juridische en technische begeleiding in een gecontroleerde omgeving waar experimenten met wettelijke waarborgen kunnen plaatsvinden.

Structuur: één loket, meerdere toezichthouders

Nederland kiest voor één centrale, multi-sectorale sandbox met één digitaal loket. Vragen komen daar binnen, worden gescreend op relevantie en volledigheid, en vervolgens gerouteerd naar het juiste onderdeel van de overheid: algemene vragen krijgen centrale antwoorden, sectorvragen gaan naar sectorale toezichthouders.

Praktisch betekent dit dat een medtech-bedrijf niet hoeft te zoeken welke toezichthouder waar zit, maar één aanspreekpunt heeft. Dat loket bepaalt welke expertise nodig is en maakt die match. Voor toezichthouders creëert het centalisering die voorkómt dat dezelfde vragen op verschillende manieren worden beantwoord in verschillende sectoren.

De sandbox biedt geen eigen IT-infrastructuur of computercapaciteit. Het accent liegt op juridische en technisch-juridische begeleiding, niet op het uitvoeren van tests. Organisaties die testfaciliteiten nodig hebben, worden doorverwezen naar bestaande ecosystemen zoals European Digital Innovation Hubs.

De zes fasen van het traject

Fase 1, pre-aanmelding, is het moment waarop organisaties de website consulteren, bestaande richtlijnen lezen, en bepalen of hun vraag relevant is. Dit filtert vele vragen af die al in beschikbare richtlijnen zijn beantwoord.

Fase 2, aanmelding en selectie, is waar triage plaatsvindt. Het kernteam bepaalt of de vraag in-scope is, of deze door schriftelijk advies kan worden beantwoord, of een eigen sandboxtraject vereist. Voor complexe vragen over hoog-risico AI-systemen in vergevorderde ontwikkelingsfase, is diepere begeleiding waarschijnlijk relevant. Voor generieke vragen over bijvoorbeeld het verschil tussen twee artikelen, is schriftelijk antwoord efficiënter.

Fase 3, voorbereiding van het traject, is waar aanbieder en toezichthouder samen het sandboxplan opstellen. Dit omvat doelen (welke regelgevingsvraag wordt opgehelderd), activiteiten (welke testen, walkthroughs, documentatie-reviews), tijdpad, voorwaarden (hoe worden grondrechten beschermd bij testen in reële omstandigheden), en afspraken over publicatie van resultaten.

Fase 4, deelname aan het traject, is waar de werksessies plaats vinden. Dit kan wekelijks of maandelijks zijn, afhankelijk van urgentie. Juridische en technische experts werken samen met het team van de aanbieder om vragen op te helderen. Bijsturing wordt verwacht: als een bepaalde aanpak niet voldoet aan artikel 10 (data governance), zoekt het team samen naar alternatieven.

Fase 5, evaluatie, is waar resultaten worden vastgelegd. Dit resulteert in een eindverslag met bevindingen, gerapporteerde activiteiten, en leerpunten. In sommige gevallen kan dit verslag als bewijs meewegen in een later conformiteitsbeoordeling door een derde partij.

Fase 6, post-deelname, is kennisdeling. Geanonimiseerde inzichten uit het traject worden gedeeld als FAQ's of publiekssamenvatting, zodat het bredere veld profiteert. Dit versterkt de norm-setting functie van de sandbox.

Wie doet wat

Het kernteam, gevormd door de coördinerende markttoezichthouders (waarschijnlijk RDI als primair coördinator), is het eerste aanspreekpunt voor alle vragen. Het kernteam beoordeelt triage en prioriteit, en zorgt voor samenhang in de antwoorden.

Markttoezichtautoriteiten, aangewezen per productcategorie of risicotoepassingsgebied, treden op als behandelend toezichthouder voor een specifiek traject of adviesaanvraag. Zij onderhouden voortdurend contact met het vraagstellende bedrijf en borgen kwaliteit.

Sectorale toezichthouders, voor domeinen met bestaande supervisie (financiële diensten, ziekenhuizen, telco), kunnen voor extra expertise worden ingeschakeld, afhankelijk van de aard van het AI-systeem.

Het loket-team beheert de website en het CRM-systeem en voert initiële screening uit. Dit zorgt ervoor dat incompleet ingevulde aanvragen snel terugkomen voor aanvulling.

Testen in reële omstandigheden

Artikel 53, lid 3 van de AI Act biedt sandbox-deelnemers een veiligheidsroute voor het testen van bepaalde AI-systemen in reële of quasi-reële omstandigheden, zonder dat dit reeds als "in de handel brengen" of "in gebruik stellen" telt. Dit is waardevol voor aanbieders die willen valideren dat hun systeem in echte condities voldoet voordat zij formeel het conformiteitspad inslaan.

Testen in reële omstandigheden vereist dat dezelfde waarborgen gelden als buiten de sandbox. Grondrechten, gezondheid en veiligheid van getroffen personen moeten beschermd zijn. Voor een biometrische identificatie-pilot: burgers moeten weten dat zij aan een test deelnemen en kunnen weigeren. Voor een kredietscoring-pilot: huishoudelijk moet dit voldoen aan bestaande creditwetgeving. De sandbox is dus geen rechtsvrije zone, maar wel een zone waarin toezichthouders flexibel kunnen zijn op technische details zolang fundamentele bescherming intact blijft.

Selectie en capaciteit

Capaciteit is realistisch een limiterende factor. Als veel organisaties vragen stellen en enkele trajecten lang duren, kan de vraagdruk snel opgelopen. Het vormvoorstel voorziet in transparante selectieprincipes: prioriteit voor startups en MKB-bedrijven in de EU, dan naar volgorde van binnenkomst, met mogelijkheden om tijdelijk in te nemen of bepaalde categorieën prioritair te behandelen.

Dit betekent dat timing materie. Organisaties die vroeg goede vragen stellen, hebben grotere kans op behandeling dan organisaties die pas enkele weken voor de compliance-deadline aankloppen.

Wat past niet in de sandbox

De sandbox is niet bedoeld voor:

Vragen die al in bestaande richtlijnen, FAQ's of jurisprudentie zijn beantwoord. Die krijgen schriftelijk antwoord.

Vragen buiten de AI Act-scope. Andere wetgeving (GDPR, sectorregulering) wordt alleen meegenomen voor zover de AI Act dat vereist.

Vragen over systemen die al op de markt zijn en waarvan compliance al voltooid had moeten zijn.

Aanvragen voor juridisch advies op maat over alle aspecten van je compliance-programma. De sandbox legt focus op AI Act-specifieke vragen.

Een praktisch voorbeeld

Een startup bouwt een AI-systeem voor onderwijsinstelling-toelaatsbesluiten. Zij denken dat ze artikel 5 niet schenden (geen verboden praktijk), maar zijn onzeker of zij artikel 10 (data governance) volledig juist begrijpen. Zij stellen voor met geteste data uit meerdere landen, maar het is onduidelijk of dat "representatief" is in de zin van de wet.

Het bedrijf diepent de aanvraag in via het loket, beschrijft hun systeem in detail, en vraagt hoe zij kunnen valideren dat hun trainingsdata representatief is. Het kernteam routeert dit naar het onderwijs-domein toezichthouder. Deze voert werkzittingen uit met het team, gaat de data-provenance door, voert samen een bias-test uit op subgroepen, en helpt een testplan op te stellen. Na drie maanden eindigt het traject. Het eindverslag documenteert welke validatieaanpak werd gekozen en waarom. Dat verslag kan het bedrijf later meegeven bij conformiteitsbeoordeling door een notified body.

Wat het NIET is: geen keuring, geen sanctiebescherming

Belangrijk om te begrijpen: de sandbox is geen keuringsbedrijf. Er is geen "certifiëring" aan het einde, geen badge die zegt "EU AI Act compliant." Het oordeel van toezichthouders in de sandbox vervangt niet later onderzoek door regulatoire enforcement. Mocht het bedrijf achteraf in de praktijk anders functioneren dan beschreven in de sandbox, kan handhaving volgen.

Ook: deelname aan de sandbox biedt geen bescherming tegen sancties. Als een organisatie de sandbox misbruikt om onderzoek te ontwijken of informatie bewust onjuist voorstelt, kan dat consequenties hebben. Maar normaal gezegd, transparante deelname aan de sandbox en eerlijk aangegeven willingness to adjust richt geen vinger tegen je.

Voorbereiding: wat je paraat moet hebben

Documentatie. Zorg dat je een systeembeschrijving hebt met doel, architectuur, data-stromen, en trainingsmethodologie. Onvolledige beschrijvingen leiden tot generieke antwoorden.

Technische diepte. Zorg dat je team de model- en data-details kent. Als je alleen weet "we gebruiken open-source model X," ben je niet klaar voor een constructief traject.

Juridische focus. Weet welk artikel je bezorgd maakt. "Compliance" is te vaag; "hoe zorgen wij dat onze trainingsdata aan artikel 10 voldoet?" is scherp.

Realisme over timing. Trajecten duren weken tot maanden. Begin niet drie weken voor je lancering.

Openheid voor kritiek. Als toezichthouders zeggen dat je aanpak niet volstaat, ben je bereid die aan te passen? De sandbox werkt alleen als deze dialoog echt is.

De volgende stappen

De Nederlandse sandbox gaat naar verwachting operationeel in herfst 2025 en loopt volop tijdens 2026. Dit is het moment om deel te nemen voor iedereen die hoog-risico AI in Nederland bouwt of implementeert. De deadline voor augustus 2026, wanneer kernverplichtingen ingaan, creëert urgentie, maar ook opportuniteit. Wie nú de sandbox betrekt, kan de winter gebruiken om zijn systeem compliant af te maken. Wie wacht, raakt in knel met de deadline.

Voor contact: check de officiële website wanneer die live gaat, of neem contact op met RDI of de AP.


🎯 Meer over AI Governance: Bekijk de AI Governance & Compliance Gids voor structuur, audit-gereedheid en toezicht.

AI Act Compliance Toolkit

Pro vanaf €29/mnd

Templates, generators, risicotools en AI Literacy training met certificaat. Alles om compliant te worden voor de deadline.

Bekijk Toolkit →