Responsible AI Platform

DPIA voor AI-systemen: wanneer verplicht en hoe uit te voeren (2026)

··16 min leestijd

De functionaris gegevensbescherming van een zorgverzekeraar krijgt een vraag van de afdeling innovatie: "We willen een AI-model inzetten dat claimgedrag voorspelt. Moeten we daar iets mee?" Het antwoord is ja, en wat je ermee moet is een DPIA. Maar niet zomaar een DPIA. Een die specifiek is ingericht op de risico's die AI-systemen met zich meebrengen.

De Data Protection Impact Assessment (DPIA), in het Nederlands de gegevensbeschermingseffectbeoordeling (GEB), is geen nieuw instrument. Artikel 35 van de AVG schrijft het al voor sinds 2018. Maar de opkomst van AI-systemen die op steeds grotere schaal persoonsgegevens verwerken, maakt de DPIA relevanter dan ooit. En met de EU AI Act die sinds 2 augustus 2025 van kracht is, ontstaat er een nieuw speelveld waarin de DPIA naast de FRIA (Fundamental Rights Impact Assessment) een eigen rol speelt.

In dit artikel behandelen we wanneer een DPIA verplicht is, hoe je die uitvoert voor AI, wat de Autoriteit Persoonsgegevens verwacht, en hoe je de DPIA combineert met de verplichtingen uit de AI Act.

Wanneer is een DPIA verplicht voor AI?

Artikel 35 lid 1 AVG stelt dat een DPIA verplicht is wanneer een verwerking "waarschijnlijk een hoog risico inhoudt voor de rechten en vrijheden van natuurlijke personen." Bij AI-systemen is dat vrijwel altijd het geval, maar laten we precies zijn.

De drie automatische triggers uit de AVG

Artikel 35 lid 3 noemt drie situaties waarin een DPIA sowieso verplicht is:

a) Geautomatiseerde besluitvorming met rechtsgevolgen. Denk aan een AI-systeem dat automatisch bepaalt of iemand een lening krijgt, een verzekering mag afsluiten, of in aanmerking komt voor een uitkering. Dit is de meest voorkomende trigger voor AI-systemen. Zodra het systeem beslissingen neemt of sterk bepalend is voor beslissingen die juridische of vergelijkbare gevolgen hebben voor personen, is een DPIA verplicht.

b) Grootschalige verwerking van bijzondere categorieën. Wanneer je AI-systeem gezondheidsgegevens, biometrische data, strafrechtelijke gegevens of andere bijzondere persoonsgegevens op grote schaal verwerkt. Een AI-model dat medische beelden analyseert of spraakherkenning toepast valt hier direct onder.

c) Stelselmatige en grootschalige monitoring van openbaar toegankelijke ruimten. Camerasystemen met gezichtsherkenning, crowd-analyse met AI, of slimme sensoren in de openbare ruimte. De combinatie van AI en surveillance is een klassieke DPIA-trigger.

De AP-lijst: extra triggers voor Nederland

De Autoriteit Persoonsgegevens heeft op basis van Artikel 35 lid 4 een eigen lijst gepubliceerd van verwerkingen waarvoor een DPIA verplicht is. Voor AI-systemen zijn deze punten relevant:

  • Heimelijke waarneming of observatie van betrokkenen
  • Profilering op basis van persoonsgegevens, zeker in combinatie met geautomatiseerde besluitvorming
  • Biometrische gegevens voor identificatiedoeleinden
  • Innovatief gebruik van bestaande of nieuwe technologie (AI valt hier per definitie onder)
  • Koppeling of combinatie van datasets op een manier die betrokkenen niet redelijkerwijs kunnen verwachten

In de praktijk voldoen de meeste AI-systemen die persoonsgegevens verwerken aan minstens twee van deze criteria. De AP hanteert de vuistregel: twee of meer criteria uit de lijst? Dan is een DPIA verplicht.

Wanneer is een DPIA niet nodig?

Er zijn situaties waarin een DPIA voor een AI-systeem niet verplicht is:

  • Het AI-systeem verwerkt geen persoonsgegevens (bijvoorbeeld een AI die productieprocessen optimaliseert op basis van machinegegevens)
  • De verwerking staat op de uitzonderingenlijst van de AP
  • Er is al een vergelijkbare DPIA uitgevoerd voor een soortgelijke verwerking en de risico's zijn niet wezenlijk anders

Maar let op: zelfs als een DPIA formeel niet verplicht is, kan het verstandig zijn om er toch een uit te voeren. De AP ziet het als een teken van goed dataverantwoordelijkheidsbeleid.

Wat maakt een DPIA voor AI anders?

Een DPIA voor een traditioneel informatiesysteem (een CRM, een HR-database) is relatief overzichtelijk. Je weet welke data erin gaat, wat ermee gebeurt, en wat eruit komt. Bij AI-systemen is dat fundamenteel anders.

Ondoorzichtigheid van het model

Bij veel AI-systemen, met name deep learning modellen, is het moeilijk of onmogelijk om precies uit te leggen hoe het model tot een bepaalde output komt. Dit raakt direct aan het transparantievereiste uit de AVG (Artikel 5 lid 1 sub a) en het recht op uitleg bij geautomatiseerde besluitvorming (Artikel 22 lid 3). In je DPIA moet je beschrijven hoe je met deze ondoorzichtigheid omgaat.

Trainingsdata als risicobron

Het AI-model is zo goed als de data waarop het is getraind. Bias in trainingsdata leidt tot discriminerende uitkomsten. In je DPIA moet je de herkomst, kwaliteit en representativiteit van trainingsdata beoordelen. Vragen die je moet beantwoorden:

  • Zijn de trainingsdata representatief voor de populatie waarop het model wordt toegepast?
  • Bevatten de trainingsdata historische vooroordelen die het model kan reproduceren?
  • Zijn de trainingsdata rechtmatig verkregen en is er een geldige grondslag voor het gebruik?
  • Hoe ga je om met persoonsgegevens in de trainingsset na het trainen?

Model drift en continue verandering

Anders dan traditionele systemen kunnen AI-modellen veranderen over tijd. Een model dat wordt bijgetraind (fine-tuning) of dat werkt met real-time data (online learning) kan langzaam afwijken van het oorspronkelijke gedrag. Dit betekent dat je DPIA geen eenmalig document is, maar een levend instrument dat periodiek moet worden herzien.

Emergent gedrag

Grote taalmodellen en andere generatieve AI-systemen kunnen onverwacht gedrag vertonen dat niet direct voortvloeit uit de trainingsdata of de systeemconfiguratie. In je DPIA moet je beschrijven hoe je monitort op onvoorzien gedrag en welke maatregelen je treft als het model zich onverwacht gedraagt.

De DPIA stap voor stap uitvoeren

De AVG schrijft in Artikel 35 lid 7 vier minimumvereisten voor de inhoud van een DPIA. Hieronder werken we elke stap uit met specifieke aandachtspunten voor AI-systemen.

Stap 1: Beschrijf de verwerking systematisch

Begin met een complete beschrijving van het AI-systeem en hoe het persoonsgegevens verwerkt.

Beschrijf allereerst het AI-systeem zelf: wat voor type model is het (regelgebaseerd, machine learning, deep learning, generatief), wat is de functie ervan en welke beslissingen ondersteunt of neemt het? Wie is de aanbieder (provider) en wie de gebruiker (deployer)? Welke input ontvangt het systeem en welke output levert het?

Breng vervolgens de datastromen in kaart. Welke persoonsgegevens gaan het systeem in als directe input, trainingsdata of contextdata? Hoe worden die gegevens verwerkt binnen het model? Waar worden ze opgeslagen, lokaal, in de cloud of bij de provider? En worden gegevens gedeeld met derden zoals API-providers of cloudaanbieders?

Identificeer daarna de betrokkenen: welke categorieën personen worden geraakt, hoeveel personen er potentieel door geraakt worden, en of er kwetsbare groepen bij betrokken zijn zoals minderjarigen, patienten of werknemers.

Ten slotte moet je de rechtsgrondslag vastleggen. Op welke grondslag uit Artikel 6 AVG is de verwerking gebaseerd? Bij bijzondere persoonsgegevens: welke uitzondering uit Artikel 9 lid 2 is van toepassing? En bij geautomatiseerde besluitvorming: geldt er een uitzondering op basis van Artikel 22 lid 2?

Stap 2: Beoordeel noodzaak en evenredigheid

Dit is de stap waar veel organisaties te snel overheen gaan. Je moet aantonen dat het gebruik van AI-technologie noodzakelijk en evenredig is voor het doel dat je wilt bereiken.

Begin bij doelbinding: is het doel van de AI-verwerking specifiek, expliciet en gerechtvaardigd? Kan hetzelfde doel worden bereikt zonder AI of met minder ingrijpende middelen? Als een eenvoudige beslisboom hetzelfde resultaat oplevert, is een complex neuraal netwerk moeilijk te rechtvaardigen.

Kijk vervolgens naar dataminimalisatie. Verwerkt het AI-systeem alleen de persoonsgegevens die strikt noodzakelijk zijn? Veel AI-modellen worden getraind op meer data dan nodig, simpelweg omdat die data beschikbaar is. Dat is geen geldige rechtvaardiging.

Beoordeel ook de opslagbeperking: hoe lang worden persoonsgegevens bewaard en zijn trainingsdata na het trainen nog herleidbaar tot individuen? En ten slotte de juistheid: hoe waarborg je dat de output van het AI-systeem accuraat is en welk foutpercentage is acceptabel gezien de impact op betrokkenen?

Stap 3: Identificeer en beoordeel risico's

Hier wordt de DPIA AI-specifiek. Naast de standaard privacyrisico's moet je bij AI-systemen ook kijken naar vijf aanvullende risicocategorieën.

Discriminatie en bias is het meest besproken risico. Kan het model systematisch bepaalde groepen benadelen op basis van beschermde kenmerken? Hoe test je op bias voor en na deployment, en welke fairness-metrics hanteer je? Een AI-systeem dat sollicitanten beoordeelt en structureel vrouwen lager scoort, is niet alleen onethisch maar ook in strijd met de AVG en de AI Act.

Bij onrechtmatige profilering onderzoek je of het systeem profielen van personen creëert op basis van hun gedrag, locatie of andere kenmerken. Zijn die profielen accuraat en worden ze gebruikt voor doelen die betrokkenen redelijkerwijs kunnen verwachten?

Verlies van autonomie gaat over de vraag in hoeverre het AI-systeem bepaalt wat mensen te zien krijgen, welke keuzes ze kunnen maken, of hoe ze worden beoordeeld. Is er betekenisvolle menselijke tussenkomst mogelijk, of fungeert het systeem in de praktijk als een black box die beslissingen dicteert?

Beoordeel ook de beveiligingsrisico's: hoe kwetsbaar is het model voor adversarial attacks, data poisoning of model extraction? En wat gebeurt er als het model wordt gecompromitteerd?

Ten slotte de transparantierisico's. Weten betrokkenen dat ze met een AI-systeem te maken hebben? En kunnen ze begrijpen hoe het systeem tot een beslissing komt? Bij complexe modellen is volledige uitlegbaarheid vaak niet haalbaar, maar je moet wel beschrijven welke stappen je neemt om zo transparant mogelijk te zijn.

Stap 4: Beschrijf de maatregelen

Voor elk geidentificeerd risico beschrijf je welke maatregelen je neemt om het risico te mitigeren.

Bij AI-systemen zijn de meest voorkomende maatregelen: periodieke bias audits om te testen op fairness en discriminatie, explainability tools zoals SHAP of LIME om modeluitkomsten te verklaren, en een human-in-the-loop opzet waarbij een mens meekijkt bij beslissingen met grote impact.

Daarnaast is continue monitoring essentieel: je moet model drift, performance degradatie en onverwacht gedrag in de gaten houden. Richt solide data governance in met kwaliteitscontroles op trainingsdata en documentatie van dataherkomst. Beperk via toegangscontrole wie het model kan aanroepen en welke data het kan benaderen. En zorg voor een incidentprocedure die beschrijft wat er gebeurt als het AI-systeem foutieve of schadelijke output genereert.

De rol van de FG bij AI-systemen

De Functionaris Gegevensbescherming (FG, of DPO in het Engels) heeft een wettelijke adviesrol bij de DPIA (Artikel 35 lid 2 AVG). Bij AI-systemen is die rol extra belangrijk.

De FG moet in een vroeg stadium worden betrokken, niet pas wanneer het systeem al is ingekocht of gebouwd. Raadpleeg de FG bij de selectie van een AI-leverancier (welke data gaat naar de provider?), bij het ontwerp van de datastromen (welke persoonsgegevens zijn echt nodig?), bij de testfase (zijn de testresultaten acceptabel qua privacy?), bij de beslissing om het systeem in productie te nemen, en bij elke significante wijziging aan het model of de data.

Het advies van de FG en de opvolging ervan moet worden gedocumenteerd in de DPIA. De AP controleert hierop.

Voorafgaande raadpleging: wanneer naar de AP?

Een vaak vergeten verplichting: Artikel 36 AVG schrijft voor dat je de Autoriteit Persoonsgegevens moet raadplegen wanneer de DPIA uitwijst dat de verwerking een hoog risico oplevert en je dat risico niet voldoende kunt mitigeren.

Bij AI-systemen komt dit vaker voor dan bij traditionele systemen. De ondoorzichtigheid van modellen, de mogelijkheid van bias en de schaal van verwerking maken het moeilijker om alle risico's naar een aanvaardbaar niveau terug te brengen.

De procedure werkt als volgt:

  1. Je dient de DPIA in bij de AP, samen met een beschrijving van de maatregelen die je al hebt genomen
  2. De AP heeft 8 weken om te reageren (verlengbaar met 6 weken)
  3. De AP kan aanvullende maatregelen eisen of de verwerking verbieden

In de praktijk raden we aan om de AP vroegtijdig te informeren wanneer je een AI-systeem wilt inzetten voor geautomatiseerde besluitvorming met grote impact op burgers.

DPIA en de EU AI Act: dubbele verplichtingen

Sinds de EU AI Act van kracht is, kunnen organisaties te maken krijgen met zowel een DPIA-verplichting (AVG) als een FRIA-verplichting (AI Act Artikel 27). Dit zijn twee verschillende assessments met een verschillende focus.

De DPIA vindt haar rechtsgrondslag in Artikel 35 AVG en richt zich op de bescherming van persoonsgegevens. De toezichthouder is de Autoriteit Persoonsgegevens, die boetes kan opleggen tot maximaal 4% van de wereldwijde omzet. Elke verwerkingsverantwoordelijke die een hoog-risico verwerking uitvoert moet een DPIA uitvoeren.

De FRIA daarentegen is gebaseerd op Artikel 27 van de AI Act en kijkt breder dan alleen privacy: naar alle grondrechten die geraakt kunnen worden door een AI-systeem. Het toezicht komt bij de nog aan te wijzen AI-toezichthouder te liggen, met boetes tot maximaal 3% van de wereldwijde omzet (of 15 miljoen euro). De FRIA-verplichting geldt alleen voor specifieke deployers van hoog-risico AI-systemen.

Voor een diepgaande vergelijking zie onze DPIA vs FRIA gids.

Hoe combineer je DPIA en FRIA?

Artikel 27 lid 4 van de AI Act staat expliciet toe dat de FRIA wordt gecombineerd met de DPIA. In de praktijk betekent dit:

  1. Start met de DPIA (die is breder qua scope voor data protection)
  2. Voeg de FRIA-elementen toe als aparte secties (non-discriminatie, menselijke waardigheid, toegang tot rechtspraak, etc.)
  3. Documenteer per recht zowel de privacy-impact als de bredere grondrechten-impact
  4. Gebruik een gecombineerd template dat beide assessments afdekt

Conformiteitsbeoordeling: de derde laag

Naast DPIA en FRIA kent de AI Act ook de conformiteitsbeoordeling (Artikel 43) voor providers van hoog-risico AI-systemen. Waar de DPIA naar dataverwerkingsrisico's kijkt en de FRIA naar grondrechtenrisico's, richt de conformiteitsbeoordeling zich op technische en organisatorische eisen zoals de Annex IV documentatie en het kwaliteitsmanagementsysteem. Als provider van een hoog-risico AI-systeem heb je potentieel alle drie nodig. Als deployer typisch de DPIA en FRIA.

Praktijkvoorbeelden

Voorbeeld 1: AI-chatbot voor klantenservice

Een telecommaatschappij wil een AI-chatbot inzetten die klantgegevens kan inzien om vragen te beantwoorden.

DPIA-trigger: Grootschalige verwerking van persoonsgegevens + innovatieve technologie.

Specifieke risico's:

  • De chatbot kan per ongeluk persoonsgegevens van klant A tonen aan klant B (data leakage)
  • Het model kan getraind zijn op klantgesprekken zonder expliciete toestemming
  • Gevoelige informatie (betalingsachterstanden, klachtenhistorie) kan onbedoeld in antwoorden verschijnen

Maatregelen: Strikte toegangscontrole per sessie, filtering van output op persoonsgegevens, geen training op productiedata zonder pseudonimisering, duidelijke melding dat het een AI-systeem betreft.

Voorbeeld 2: HR-screening met AI

Een recruitmentbureau wil AI inzetten om cv's automatisch te screenen en te ranken.

DPIA-trigger: Geautomatiseerde besluitvorming met significante gevolgen + profilering.

Specifieke risico's:

  • Discriminatie op basis van geslacht, leeftijd, etniciteit of postcode (proxy-discriminatie)
  • Kandidaten worden afgewezen zonder menselijke beoordeling
  • Trainingsdata weerspiegelt historische aannamebias

Maatregelen: Verplichte menselijke review van alle afwijzingen, bias audit voor deployment, geen gebruik van beschermde kenmerken als features, transparantie naar kandidaten over het gebruik van AI, regelmatige fairness-monitoring.

Voorbeeld 3: Predictive analytics in de zorg

Een zorgverzekeraar wil AI inzetten om het risico op chronische aandoeningen te voorspellen en preventieve programma's aan te bieden.

DPIA-trigger: Bijzondere persoonsgegevens (gezondheid) + geautomatiseerde besluitvorming + grootschalige verwerking.

Specifieke risico's:

  • Gezondheidsdata is de meest gevoelige categorie persoonsgegevens
  • Risicoprofielen kunnen leiden tot uitsluiting van verzekeringsdekking
  • Voorspellingen kunnen stigmatiserend werken
  • Onnauwkeurige voorspellingen kunnen leiden tot onnodige medische interventies

Maatregelen: Expliciete toestemming of wettelijke grondslag, strenge pseudonimisering, geen gebruik voor acceptatiebeleid (alleen preventie), validatie door medische professionals, opt-out mogelijkheid voor verzekerden.

DPIA als levend document

Een veelgemaakte fout is om de DPIA te behandelen als een eenmalig goedkeuringsdocument. Bij AI-systemen is dat een recept voor problemen. De AVG schrijft in Artikel 35 lid 11 voor dat je de DPIA moet herzien wanneer de risico's veranderen.

Bij AI-systemen zijn er specifieke momenten waarop herziening nodig is:

  • Het model wordt opnieuw getraind met nieuwe data
  • De inputdata verandert significant (andere bronnen, andere populatie)
  • Het systeem wordt ingezet voor een nieuw doel of een nieuwe doelgroep
  • Er zijn incidenten geweest met het AI-systeem
  • De wet- en regelgeving verandert (zoals de gefaseerde inwerkingtreding van de AI Act)
  • De technologie verandert fundamenteel (upgrade naar een ander modeltype)

Wij raden aan om minimaal jaarlijks een review van de DPIA uit te voeren, en vaker wanneer het AI-systeem actief wordt bijgetraind.

Gratis DPIA template voor AI-systemen

We hebben een specifiek DPIA template voor AI-systemen ontwikkeld dat alle bovengenoemde elementen afdekt. Het template bevat een systematische beschrijving van het AI-systeem en de datastromen, een AI-specifieke risicobeoordeling die kijkt naar bias, transparantie, beveiliging en emergent gedrag, een noodzaak- en evenredigheidstoets aangepast voor AI, een maatregelenoverzicht met AI-specifieke mitigaties, een sectie voor FG-advies en documentatie, en een herzienschema voor continue compliance.

Download het template gratis via onze templates pagina.

Conclusie

De DPIA voor AI-systemen is geen formaliteit. Het is het instrument waarmee je laat zien dat je de privacy van mensen serieus neemt in een tijdperk waarin AI-systemen steeds dieper ingrijpen in het dagelijks leven. Met de EU AI Act die nu van kracht is, wordt de DPIA bovendien onderdeel van een breder compliance-landschap waarin ook de FRIA en de conformiteitsbeoordeling hun plek hebben.

Begin vroeg, betrek je FG, wees eerlijk over de risico's, en behandel de DPIA als een levend document. Dat is niet alleen wat de wet voorschrijft, het is ook wat je organisatie beschermt.

Veelgestelde vragen over DPIA voor AI

Meer over de relatie tussen DPIA en FRIA? Lees onze complete DPIA vs FRIA vergelijking. Wil je direct aan de slag met de grondrechtentoets? Gebruik onze gratis FRIA Generator.

Op LearnWize:EU AI Act ComplianceProbeer het gratis

Templates, checklists en interactieve oefeningen om je compliance op orde te krijgen.

Doe de gratis AI challenge