EDPS scherpt GenAI-richtsnoer aan: Van abstracte principes naar concrete compliance

18 min leestijd
Engelse versie niet beschikbaar

Wat de herziene EDPS-richtlijnen betekenen voor publieke en private organisaties die met generatieve AI werken

Belangrijke update: Op 28 oktober 2025 publiceerde de EDPS versie 2 van het richtsnoer voor generatieve AI. Deze herziening brengt aanzienlijk meer praktische duidelijkheid over rolverdeling, rechtsgrond, doelbinding en betrokkenenrechten bij GenAI-systemen.

Waarom deze herziening verder reikt dan EU-instellingen

De European Data Protection Supervisor (EDPS) heeft het richtsnoer voor het gebruik van generatieve AI door EU-instellingen herzien en op 28 oktober 2025 gepubliceerd. Het document maakt concreter wat van organisaties wordt verwacht bij ontwikkeling en inzet van generatieve AI.

Ook als je buiten EU-instellingen werkt, is dit relevant. Redeneringen, accenten en definities van de EDPS vinden vaak hun weg naar nationale toezichthouders en publieke instellingen. Voor private partijen die samenwerken met overheden helpt het om verwachtingen te scherpen en verantwoordelijkheden expliciet te verdelen.

Zoals EDPS-supervisor Wojciech Wiewiórowski benadrukt: "This first revision of our Orientations is more than an update; it's a reaffirmation of our dual mission: enabling human-centric innovation within the EU while rigorously safeguarding individual's personal data."

Wat is er nieuw in versie 2?

De herziening brengt vier belangrijke verbeteringen samen die directe impact hebben op hoe organisaties met generatieve AI moeten werken.

1. Een aangescherpte definitie van generatieve AI

Het richtsnoer verduidelijkt de reikwijdte en benadrukt de keten van modelontwikkeling, fine-tuning en toepassing in concrete processen. Dit helpt om te bepalen wanneer het richtsnoer van toepassing is en waar verantwoordelijkheden liggen.

2. Een actiegerichte compliance-checklist

Geen abstracte principes, maar toetsvragen die je direct kunt toepassen in beleid, ontwerp en documentatie. De checklist helpt organisaties om systematisch door de verschillende fasen van het systeem te lopen en te controleren of aan alle vereisten is voldaan.

3. Rolverduidelijking langs de levenscyclus

Het onderscheid tussen verwerkingsverantwoordelijke, gezamenlijke verantwoordelijken en verwerker wordt uitgewerkt langs vijf fasen van de levenscyclus:

FaseFocusTypische verantwoordelijkheid
1. Scope definitionDoel en toepassingsgebied bepalenController
2. Model selectionPassend model kiezenController of joint controller
3. Adaptation & trainingFine-tuning en training met dataController voor eigen data, processor voor hosting
4. Performance evaluationTesten en validerenController met ondersteuning processor
5. Integration & monitoringInzet in processen en doorlopende bewakingController met processor voor technisch beheer

Belangrijk: Deze gegevensbeschermingsrollen zijn niet gelijk aan AI-markt termen zoals provider, developer of deployer. Een leverancier kan in de ene fase verwerker zijn en in een andere fase eigen verwerkingsverantwoordelijke.

4. Praktische aanwijzingen over rechtsgrond, doelbinding en betrokkenenrechten

Denk aan omgaan met prompts en output die persoonsgegevens kunnen bevatten, modelgeheugen en logging, en aan het inrichten van processen voor inzage, verwijdering en bezwaren. De EDPS benadrukt dat generatieve AI geen vrijbrief geeft om ruimer met gegevens om te gaan.

Waarom dit ertoe doet voor publieke en semipublieke organisaties

Voor ministeries, uitvoeringsorganisaties, gemeenten, waterschappen en onderwijsinstellingen biedt het richtsnoer een houvast om innovatie te combineren met zorgvuldigheid. Het helpt om discussies te beslechten die in de praktijk vaak blijven liggen:

  • Wie bepaalt het doel en wie kiest de essentiële middelen?
  • Wat is de rechtsgrond per stap in de levenscyclus?
  • Wie handelt verzoeken van betrokkenen af?
  • Hoe documenteer je besluiten over datakwaliteit en bias-mitigatie?

Door de checklist als kapstok te gebruiken, voorkom je dat een DPIA of AI-impactbeoordeling blijft hangen in algemene bewoordingen. Dat maakt auditgesprekken efficiënter en vergroot het draagvlak bij security, privacy en inkoop.

De kern: rollen en verantwoordelijkheden over de levenscyclus

De EDPS vraagt expliciet om rolbepaling per fase. In de ontwikkelfase kunnen andere partijen verantwoordelijk zijn dan in de gebruiksfase. Twee aandachtspunten springen eruit:

Controller, processor en joint controller zijn gegevensbeschermingsrollen. Deze zijn niet één-op-één gelijk aan termen die in de AI-markt of de AI-wetgeving worden gebruikt. Een leverancier kan in de ene fase verwerker zijn en in een andere fase eigen verwerkingsverantwoordelijke. Dit moet je schriftelijk uitleggen en borgen in je register van verwerkingen en in je contracten.

Casusdenken helpt. Stel: een EU-instelling ontwikkelt intern een hulpmiddel om HR-processen te versnellen en gebruikt daarvoor een LLM van een derde. Tijdens ontwikkeling bepaalt de instelling het doel en de essentiële middelen. In die fase is de instelling verwerkingsverantwoordelijke voor de trainingen en tests die zij zelf regisseert. Zodra een andere instelling het hulpmiddel in eigen HR-proces inzet met eigen data en prompts, wordt die instelling controller voor dat gebruik. Werk je gezamenlijk aan ontwikkeling en doelbepaling, dan kom je al snel uit op gezamenlijke verantwoordelijkheid, met een duidelijke taakverdeling.

Waar persoonsgegevens in beeld komen

Persoonsgegevens kunnen op meerdere momenten terugkomen, soms minder zichtbaar dan je denkt. Het richtsnoer onderscheidt drie kritieke momenten.

Training en evaluatie

Datasets kunnen persoonsgegevens bevatten, ook als je vooral met openbare bronnen werkt. Anonimiteit veronderstellen is riskant. Volgens EDPB Opinion 28/2024 moet je aantonen dat herleiding redelijkerwijs is uitgesloten. Voor AI-modellen betekent dit dat extractie van persoonsgegevens "insignificant" moet zijn met alle redelijkerwijs beschikbare middelen - een hoge lat.

Prompting en output

Invoerteksten en gegenereerde antwoorden kunnen persoonsgegevens bevatten. Denk aan samenvattingen van interne notities of namen in tickets. Bewaartermijnen, toegang en logging horen daarbij. Elk van deze elementen vergt een eigen onderbouwing en technische maatregel.

Modelgeheugen en onbedoelde reproductie

Onbedoelde reproductie van trainingsdata is een reëel risico. Beperk exposure door afscherming, redaction en technische controles zoals output-filtering. De EDPS benadrukt dat beveiligingsrisico's specifiek voor generatieve AI omvatten:

Specifieke beveiligingsrisico's bij GenAI

Model inversion attacks: aanvallers kunnen trainingsdata reconstrueren door slimme queries. Prompt injection: manipuleren van het systeem via schadelijke invoer. Jailbreaking: omzeilen van veiligheidsmaatregelen. Data poisoning: vergiftigen van trainingsdata met kwaadaardige input. Unintended data reproduction: het model reproduceert letterlijk trainingsdata in output.

Deze risico's vragen om specifieke technische maatregelen zoals output-filtering, anomaliedetectie en logging van ongewone prompts.

Web-scraping: scherpe keuzes nodig

Vooral web-scraping vraagt scherpe keuzes. De EDPS is hier expliciet in: de techniek op zich is niet verboden, maar een rechtsgrond is niet vanzelfsprekend. Bij publieke taken moet de opdracht uit wetgeving volgen.

EDPS-waarschuwing over web scraping: Openbaar beschikbare data blijft beschermd onder de AVG. Het feit dat informatie online staat, maakt het nog geen rechtmatige grondslag voor verwerking. Organisaties moeten aantonen dat scraping noodzakelijk is, beperkt blijft tot manifest openbaar gemaakte gegevens, en wordt gecombineerd met maatregelen die de impact op betrokkenen minimaliseren.

Verder geldt: beperk tot manifest openbaar gemaakte gegevens, documenteer de noodzaak en neem maatregelen die de impact op betrokkenen minimaliseren. Dit is niet alleen juridisch nodig maar voorkomt ook reputatieschade.

Rechtsgrond, doelbinding en proportionaliteit in de praktijk

De neiging om één generieke rechtsgrond op het hele systeem te plakken, leidt vaak tot discussies. Beter is om per verwerkingsfase te werken. Het richtsnoer benadrukt dat voor EU-instellingen Artikel 5(1)(a) van Verordening 2018/1725 - uitvoering van taken van algemeen belang - het meest toepasselijk is, mits je kunt aantonen dat de instelling hiervoor legitieme autoriteit heeft.

Toestemming als rechtsgrond blijkt in de praktijk lastig. De EDPS benadrukt dat toestemming moet zijn: vrijelijk gegeven, specifiek, geïnformeerd, ondubbelzinnig, en herroepbaar. Bij grote trainingssets is het praktisch vrijwel onmogelijk om aan al deze criteria te voldoen.

Ontwikkeling

Leg vast met welke datasets je werkt, op welke basis en voor welk doel. Als je eigen personeelsgegevens gebruikt voor validatie, beoordeel dan of dit binnen het doel van HR-administratie valt of een nieuwe verwerking vereist.

Inzet in processen

Koppel use-cases aan een duidelijke taakomschrijving of wettelijke basis. Bijvoorbeeld: samenvatten van burgerbrieven binnen de taak van correspondentieafhandeling. Maak zichtbaar waarom AI een passend middel is en welke beperkingen gelden.

Beheer en support

Toegang van leveranciers, foutanalyses en logging moeten een eigen onderbouwing hebben. Werk waar mogelijk met pseudonimisering, dataminimalisatie en duidelijke dataretentie.

DPIA en AI-impactbeoordeling: één werkstroom

De EDPS-checklist is bruikbaar als ruggengraat voor je DPIA en AI-impactbeoordeling. Richt de werkstroom zo in dat je per use-case dezelfde vragen beantwoordt: doel, datastromen, rollen, risico's, maatregelen, monitoring. Koppel dat aan je register van verwerkingen, je modelkaart of systeemfiche en je technische documentatie.

Rol van de Data Protection Officer: De EDPS benadrukt dat DPO's een centrale rol spelen bij de coördinatie van compliance. Dit vereist technisch begrip van systeemlevenscycli en betrokkenheid bij DPIA's vanaf het begin. De DPO moet niet alleen achteraf advies geven, maar vanaf de scope-definitie meekijken.

Zo ontstaat één dossier dat intern standhoudt bij audit en extern uitlegbaar is voor burgers en partners.

Contracteren met leveranciers en partners

Contracten moeten het verhaal bevestigen dat je in je DPIA en register beschrijft. Aandachtspunten:

Rolafbakening

Benoem expliciet per fase wie waarvoor verantwoordelijk is en hoe escalaties werken. Leg gezamenlijke verantwoordelijkheid vast in een artikel 26-afspraak met transparante taakverdeling. Vergeet niet dat leveranciers die zelf doelen bepalen of essentiële middelen kiezen, controller zijn voor die activiteiten.

Ondersteuning van rechten

Leverancier of partner moet praktisch kunnen helpen bij inzage, rectificatie en verwijdering, inclusief filtering van logs en het maskeren van prompts en outputs. Het richtsnoer benadrukt acht kernrechten die gewaarborgd moeten blijven: informatie, inzage, rectificatie, verwijdering, bezwaar, beperking, portabiliteit en herroeping van toestemming.

Technische uitdaging: data subject rights bij GenAI

Het richtsnoer erkent dat er technische uitdagingen zijn bij het identificeren van individuen binnen enorme trainingssets en het beheren van "inferred data" die tijdens gebruik wordt gegenereerd. Dit betekent niet dat rechten niet hoeven te worden gewaarborgd, maar wel dat je specifieke procedures en technische oplossingen moet ontwikkelen.

Denk aan: logging die traceerbaarheid mogelijk maakt, technische mogelijkheden om specifieke trainingsdata te isoleren, en duidelijke procedures voor wanneer volledige naleving technisch onmogelijk is.

Datakwaliteit en retentie

Leg eisen voor datasetbeheer, evaluatie-sets en bewaartermijnen vast. Voorkom dat supportkanalen onnodig persoonsgegevens opslaan. Het richtsnoer benadrukt dat bias in generatieve AI kan voortkomen uit stereotypen in trainingsdata, ondervertegenwoordigde populaties, ontbrekende variabelen, en vooroordelen van ontwikkelaars. Contracten moeten bias-mitigatie expliciet maken.

Beveiliging en locatie

Specificaties over encryptie, sleutelbeheer, locaties van model-hosting en subverwerkers. Beschrijf fallback-opties en exit. Besteed specifieke aandacht aan de eerder genoemde GenAI-specifieke risico's zoals prompt injection en model inversion.

Transparantie richting eindgebruikers

Voorzie in communicatiemateriaal dat uitlegt wanneer AI wordt gebruikt, welke beperkingen gelden en hoe bezwaar kan worden gemaakt.

Rechten van betrokkenen en geautomatiseerde besluitvorming

Bij gebruik van generatieve AI in beslisondersteuning moet je laten zien hoe menselijke tussenkomst is geregeld. Denk aan dossiervorming, een zichtbaar afwijkrecht en het voorkomen dat AI-uitvoer de feitelijke doorslag geeft zonder controle.

Vraag je per proces af of sprake is van geautomatiseerde besluitvorming binnen het toepasselijke regime en zorg voor ingericht bezwaar, inzage en correctie. Voor organisaties buiten de EU-instellingen is de gedachtegang vergelijkbaar: benoem wanneer AI-uitvoer enkel advies is en wanneer het besluitvormingsgewicht krijgt.

Praktijkvoorbeeld 1: Gemeente met GenAI-samenvatter in het KCC

Situatie

Het KCC wil inkomende e-mails samenvatten en antwoordvoorstellen genereren. Een SaaS-leverancier levert het model en de interface.

Aanpak volgens EDPS-richtsnoer

De gemeente is controller voor het gebruik in het KCC. De leverancier is in beginsel verwerker voor hosting, fine-tuning en support, maar kan zelf controller zijn voor eigen modelontwikkeling met andere data. In contracten en register beschrijf je de verwerkingen per fase.

Prompts en output kunnen persoonsgegevens bevatten, dus je regelt retentie, afscherming en een proces voor inzage en verwijdering. De inzet valt onder de taak van correspondentieafhandeling, met noodzaakstoets en minder ingrijpende alternatieven afgewogen.

Kwaliteitscontrole gebeurt via random sampling en menselijke review, met logging die niet langer wordt bewaard dan nodig. Specifieke aandacht voor bias: zijn antwoorden op e-mails in verschillende talen even accuraat? Zijn bepaalde types vragen ondervertegenwoordigd in de trainingset?

Lessen

Rolbepaling per fase voorkomt misverstanden. Door de EDPS-checklist te vertalen naar KCC-werkafspraken kun je het systeem naadloos opnemen in privacy- en security-beheer.

Praktijkvoorbeeld 2: Private leverancier bouwt HR-ondersteuning voor ministerie

Situatie

Een bedrijf ontwikkelt met een foundation model een tool die vacatureteksten opstelt en sollicitaties samenvat. Het ministerie wil de tool in eigen omgeving draaien.

Aanpak volgens EDPS-richtsnoer

Tijdens gezamenlijke ontwikkeling voor een gedeeld doel kan sprake zijn van gezamenlijke verantwoordelijkheid. Leg dit vast met verdeling van taken, waaronder wie verzoeken van betrokkenen behandelt en hoe technische ondersteuning is geregeld.

Na oplevering en inzet door het ministerie met eigen data is het ministerie controller voor de gebruiksfase. De leverancier blijft controller voor eigen ontwikkelprocessen en datasets die hij buiten de opdracht gebruikt. In beide fasen is transparantie nodig richting kandidaten en medewerkers.

Het databeleid beschrijft expliciet hoe trainingsdata en evaluatiesets worden geselecteerd (bijvoorbeeld: representativiteit van diverse kandidatenprofielen), hoe bias wordt gemeten (zoals: vergelijkbare kwaliteit van samenvattingen voor verschillende demografische groepen) en gereduceerd, en hoe logs worden opgeschoond.

Lessen

Door de levenscyclus centraal te stellen, wordt zichtbaar wanneer verantwoordelijkheden verschuiven en welke documentatie daarbij hoort. De EDPS-benadering dwingt tot expliciet maken van wat vaak impliciet blijft.

Zo maak je de EDPS-checklist werkend in je organisatie

Een werkbare aanpak bestaat uit drie lijnen die je parallel trekt:

1. Inventarisatie

Breng alle GenAI-use-cases in kaart met doel, data, modeltype, koppelingen en gebruikersgroepen. Koppel elk item aan een eigenaar en aan je register van verwerkingen. Gebruik de vijf levenscyclusfasen als structuur.

2. Rol- en rechtsgrondmatrix

Teken per use-case de levenscyclus. Bepaal per fase de rolverdeling en wijs per verwerking een rechtsgrond toe. Veranker dit in contracten, proceseigenaren en procedures.

Voorbeeld rol-matrix

Use case: Chatbot voor klantenservice
Fase 1 - Scope: Organisatie = controller (bepaalt doel: klantvragen beantwoorden)
Fase 2 - Model selection: Organisatie = controller, leverancier = adviseur
Fase 3 - Training: Organisatie = controller (eigen klantdata), leverancier = processor (hosting)
Fase 4 - Evaluatie: Organisatie = controller (testcriteria), leverancier = processor (technische tests)
Fase 5 - Productie: Organisatie = controller (gebruik), leverancier = processor (hosting & onderhoud)

Rechtsgrond per fase: Wettelijke taak (klantcontact) in fase 1, 4 en 5. Contractuele verplichting met leverancier in fase 3 en 5 voor processing.

3. Kwaliteits- en rechtenborging

Leg vast hoe je kwaliteit toetst, hoe menselijk toezicht werkt en hoe verzoeken van betrokkenen worden afgehandeld. Gebruik technische controls voor redaction, output-filtering en dataretentie.

Deze drie lijnen vormen samen een werkstroom die je steeds opnieuw kunt toepassen bij nieuwe use-cases en leveranciers.

Accountabiliteitsvereisten: documenteer alles

De EDPS benadrukt herhaaldelijk dat controllers alle mitigatiemaatregelen, risicobeoordelingen en compliance-besluiten moeten documenteren. Dit is niet alleen een formaliteit maar een praktische noodzaak bij audits.

1

DPIA voor elke nieuwe toepassing

Voor elke nieuwe GenAI-use case een Data Protection Impact Assessment uitvoeren, inclusief specifieke risico's zoals bias en onbedoelde reproductie.

2

Auditlogs van anonimiseringsprocessen

Documenteer welke anonimiseringsmethoden zijn gebruikt en waarom je concludeert dat heridentificatie "insignificant" is.

3

Records van interne beslissingen

Leg vast waarom specifieke data-elementen noodzakelijk zijn, waarom bepaalde modellen zijn gekozen, en hoe trade-offs tussen functionaliteit en privacy zijn gemaakt.

4

Periodieke reviews

Plan regelmatige reviews van je GenAI-systemen om te controleren of doelen, risico's en maatregelen nog actueel zijn.

Wat je morgen kunt doen

Direct toepasbare stappen om het richtsnoer te activeren in je organisatie:

1

Map je use cases

Leg twee lopende GenAI-use-cases langs de EDPS-checklist en noteer in je register per fase de rolverdeling en rechtsgrond. Gebruik de tabel met vijf levenscyclusfasen als sjabloon.

2

Review je contracten

Controleer of je contracten de levenscyclusbenadering volgen. Pas verwerkersovereenkomsten en eventuele afspraken over gezamenlijke verantwoordelijkheid waar nodig aan. Let specifiek op: wie bepaalt essentiële middelen in elke fase, hoe wordt ondersteuning bij data subject rights geregeld, en welke specifieke GenAI-beveiligingsrisico's zijn gedekt.

3

Richt reviewritueel in

Plan een maandelijks reviewmoment: samplen, meten, bijsturen en documenteren. Houd technische en organisatorische maatregelen actueel en zorg dat privacy-officers en auditors makkelijk kunnen meekijken.

4

Voer bias-assessment uit

Plan een bias-assessment voor je belangrijkste GenAI-toepassing. Controleer of trainingsdata representatief is voor alle doelgroepen en of output systematische verschillen vertoont.

5

Test betrokkenenrechten

Test je data subject rights procedures met een simulatie. Stel dat iemand inzage vraagt in hoe hun data in het AI-systeem is gebruikt - kun je dit binnen een maand beantwoorden?

6

Bouw je documentatie

Start met het systematisch documenteren van alle besluiten over modelkeuze, datakwaliteit, bias-mitigatie en technische maatregelen. Dit is je bewijs bij audits.

Met deze stappen maak je het nieuwe richtsnoer direct toepasbaar. Je bouwt aan AI-toepassingen die aantoonbaar zorgvuldig met persoonsgegevens omgaan en daardoor langer houdbaar zijn binnen jouw organisatie.

De bredere context: EDPS als voorbode voor nationale toezichthouders

Het is belangrijk om te begrijpen dat EDPS-richtsnoeren vaak een voorloper zijn van bredere Europese interpretaties. Hoewel dit richtsnoer formeel alleen geldt voor EU-instellingen onder Verordening 2018/1725, zullen nationale toezichthouders zoals de Autoriteit Persoonsgegevens bij hun interpretatie van de AVG zeer waarschijnlijk naar deze argumentatie kijken.

Strategisch voordeel: Private organisaties die proactief de EDPS-benadering overnemen, lopen vooruit op toekomstige verwachtingen van nationale toezichthouders. Dit minimaliseert het risico op correcties en herwerk wanneer er expliciet richtsnoeren voor de private sector komen.

Daarnaast is er een duidelijke lijn tussen dit richtsnoer en de aankomende gezamenlijke richtlijnen van EDPB en de Europese Commissie over de AI Act en GDPR, naar verwachting in Q1 2026. De systematiek van levenscyclusbenadering, expliciete rolverdeling en technische mitigatiemaatregelen zal zeer waarschijnlijk terugkomen in die bredere guidance.

Conclusie: van principes naar werkbare compliance

De herziene EDPS-richtlijnen voor generatieve AI markeren een belangrijke verschuiving van abstracte principes naar concrete, uitvoerbare compliance-eisen. Door de focus op levenscyclusfasen, expliciete rolverdeling en praktische checklists wordt duidelijker wat organisaties moeten doen.

De kernboodschap is helder: generatieve AI vraagt om dezelfde zorgvuldigheid met persoonsgegevens als elke andere verwerking, met extra aandacht voor specifieke risico's zoals bias, onbedoelde reproductie en manipulatie via prompts.

Voor publieke organisaties biedt het richtsnoer direct toepasbare handvatten. Voor private partijen is het een waarschuwing dat verwachtingen over GenAI-compliance concreter worden en dat proactieve implementatie later herwerk voorkomt.

Belangrijkste takeaways

Rolverdeling per levenscyclusfase voorkomt misverstanden en maakt audits beheersbaarder

Één generieke rechtsgrond werkt niet - documenteer per fase waarom verwerking rechtmatig is

Web scraping is geen vrijbrief - openbare data blijft beschermd onder AVG

Bias en beveiligingsrisico's vragen om specifieke technische en organisatorische maatregelen

Documentatie is geen bijzaak maar het bewijs dat je zorgvuldig hebt gehandeld

De EDPS-benadering is een voorbode voor bredere Europese interpretaties onder de AI Act

Organisaties die nu beginnen met implementatie volgens deze lijn, bouwen niet alleen aan compliance maar aan vertrouwen bij gebruikers, medewerkers en toezichthouders. In een tijd waarin AI-toepassingen steeds meer rechtstreeks met burgers en klanten interacteren, is dat vertrouwen een strategisch kapitaal.


Bronnen en verdere lezing