Wat de herziene EDPS-richtlijnen betekenen voor publieke en private organisaties die met generatieve AI werken
Belangrijke update: Op 28 oktober 2025 publiceerde de EDPS versie 2 van het richtsnoer voor generatieve AI. Deze herziening brengt aanzienlijk meer praktische duidelijkheid over rolverdeling, rechtsgrond, doelbinding en betrokkenenrechten bij GenAI-systemen.
Waarom deze herziening verder reikt dan EU-instellingen
De European Data Protection Supervisor (EDPS) heeft het richtsnoer voor het gebruik van generatieve AI door EU-instellingen herzien en op 28 oktober 2025 gepubliceerd. Het document maakt concreter wat van organisaties wordt verwacht bij ontwikkeling en inzet van generatieve AI.
Ook als je buiten EU-instellingen werkt, is dit relevant. Redeneringen, accenten en definities van de EDPS vinden vaak hun weg naar nationale toezichthouders en publieke instellingen. Voor private partijen die samenwerken met overheden helpt het om verwachtingen te scherpen en verantwoordelijkheden expliciet te verdelen.
Zoals EDPS-supervisor Wojciech Wiewiórowski benadrukt: "This first revision of our Orientations is more than an update; it's a reaffirmation of our dual mission: enabling human-centric innovation within the EU while rigorously safeguarding individual's personal data."
Wat is er nieuw in versie 2?
De herziening brengt vier belangrijke verbeteringen samen die directe impact hebben op hoe organisaties met generatieve AI moeten werken.
1. Een aangescherpte definitie van generatieve AI
Het richtsnoer verduidelijkt de reikwijdte en benadrukt de keten van modelontwikkeling, fine-tuning en toepassing in concrete processen. Dit helpt om te bepalen wanneer het richtsnoer van toepassing is en waar verantwoordelijkheden liggen.
2. Een actiegerichte compliance-checklist
Geen abstracte principes, maar toetsvragen die je direct kunt toepassen in beleid, ontwerp en documentatie. De checklist helpt organisaties om systematisch door de verschillende fasen van het systeem te lopen en te controleren of aan alle vereisten is voldaan.
3. Rolverduidelijking langs de levenscyclus
Het onderscheid tussen verwerkingsverantwoordelijke, gezamenlijke verantwoordelijken en verwerker wordt uitgewerkt langs vijf fasen van de levenscyclus:
| Fase | Focus | Typische verantwoordelijkheid |
|---|---|---|
| 1. Scope definition | Doel en toepassingsgebied bepalen | Controller |
| 2. Model selection | Passend model kiezen | Controller of joint controller |
| 3. Adaptation & training | Fine-tuning en training met data | Controller voor eigen data, processor voor hosting |
| 4. Performance evaluation | Testen en valideren | Controller met ondersteuning processor |
| 5. Integration & monitoring | Inzet in processen en doorlopende bewaking | Controller met processor voor technisch beheer |
Belangrijk: Deze gegevensbeschermingsrollen zijn niet gelijk aan AI-markt termen zoals provider, developer of deployer. Een leverancier kan in de ene fase verwerker zijn en in een andere fase eigen verwerkingsverantwoordelijke.
4. Praktische aanwijzingen over rechtsgrond, doelbinding en betrokkenenrechten
Denk aan omgaan met prompts en output die persoonsgegevens kunnen bevatten, modelgeheugen en logging, en aan het inrichten van processen voor inzage, verwijdering en bezwaren. De EDPS benadrukt dat generatieve AI geen vrijbrief geeft om ruimer met gegevens om te gaan.
Waarom dit ertoe doet voor publieke en semipublieke organisaties
Voor ministeries, uitvoeringsorganisaties, gemeenten, waterschappen en onderwijsinstellingen biedt het richtsnoer een houvast om innovatie te combineren met zorgvuldigheid. Het helpt om discussies te beslechten die in de praktijk vaak blijven liggen:
- Wie bepaalt het doel en wie kiest de essentiële middelen?
- Wat is de rechtsgrond per stap in de levenscyclus?
- Wie handelt verzoeken van betrokkenen af?
- Hoe documenteer je besluiten over datakwaliteit en bias-mitigatie?
Door de checklist als kapstok te gebruiken, voorkom je dat een DPIA of AI-impactbeoordeling blijft hangen in algemene bewoordingen. Dat maakt auditgesprekken efficiënter en vergroot het draagvlak bij security, privacy en inkoop.
De kern: rollen en verantwoordelijkheden over de levenscyclus
De EDPS vraagt expliciet om rolbepaling per fase. In de ontwikkelfase kunnen andere partijen verantwoordelijk zijn dan in de gebruiksfase. Twee aandachtspunten springen eruit:
Controller, processor en joint controller zijn gegevensbeschermingsrollen. Deze zijn niet één-op-één gelijk aan termen die in de AI-markt of de AI-wetgeving worden gebruikt. Een leverancier kan in de ene fase verwerker zijn en in een andere fase eigen verwerkingsverantwoordelijke. Dit moet je schriftelijk uitleggen en borgen in je register van verwerkingen en in je contracten.
Casusdenken helpt. Stel: een EU-instelling ontwikkelt intern een hulpmiddel om HR-processen te versnellen en gebruikt daarvoor een LLM van een derde. Tijdens ontwikkeling bepaalt de instelling het doel en de essentiële middelen. In die fase is de instelling verwerkingsverantwoordelijke voor de trainingen en tests die zij zelf regisseert. Zodra een andere instelling het hulpmiddel in eigen HR-proces inzet met eigen data en prompts, wordt die instelling controller voor dat gebruik. Werk je gezamenlijk aan ontwikkeling en doelbepaling, dan kom je al snel uit op gezamenlijke verantwoordelijkheid, met een duidelijke taakverdeling.
Waar persoonsgegevens in beeld komen
Persoonsgegevens kunnen op meerdere momenten terugkomen, soms minder zichtbaar dan je denkt. Het richtsnoer onderscheidt drie kritieke momenten.
Training en evaluatie
Datasets kunnen persoonsgegevens bevatten, ook als je vooral met openbare bronnen werkt. Anonimiteit veronderstellen is riskant. Volgens EDPB Opinion 28/2024 moet je aantonen dat herleiding redelijkerwijs is uitgesloten. Voor AI-modellen betekent dit dat extractie van persoonsgegevens "insignificant" moet zijn met alle redelijkerwijs beschikbare middelen - een hoge lat.
Prompting en output
Invoerteksten en gegenereerde antwoorden kunnen persoonsgegevens bevatten. Denk aan samenvattingen van interne notities of namen in tickets. Bewaartermijnen, toegang en logging horen daarbij. Elk van deze elementen vergt een eigen onderbouwing en technische maatregel.
Modelgeheugen en onbedoelde reproductie
Onbedoelde reproductie van trainingsdata is een reëel risico. Beperk exposure door afscherming, redaction en technische controles zoals output-filtering. De EDPS benadrukt dat beveiligingsrisico's specifiek voor generatieve AI omvatten:
Specifieke beveiligingsrisico's bij GenAI
Model inversion attacks: aanvallers kunnen trainingsdata reconstrueren door slimme queries. Prompt injection: manipuleren van het systeem via schadelijke invoer. Jailbreaking: omzeilen van veiligheidsmaatregelen. Data poisoning: vergiftigen van trainingsdata met kwaadaardige input. Unintended data reproduction: het model reproduceert letterlijk trainingsdata in output.
Deze risico's vragen om specifieke technische maatregelen zoals output-filtering, anomaliedetectie en logging van ongewone prompts.
Web-scraping: scherpe keuzes nodig
Vooral web-scraping vraagt scherpe keuzes. De EDPS is hier expliciet in: de techniek op zich is niet verboden, maar een rechtsgrond is niet vanzelfsprekend. Bij publieke taken moet de opdracht uit wetgeving volgen.
EDPS-waarschuwing over web scraping: Openbaar beschikbare data blijft beschermd onder de AVG. Het feit dat informatie online staat, maakt het nog geen rechtmatige grondslag voor verwerking. Organisaties moeten aantonen dat scraping noodzakelijk is, beperkt blijft tot manifest openbaar gemaakte gegevens, en wordt gecombineerd met maatregelen die de impact op betrokkenen minimaliseren.
Verder geldt: beperk tot manifest openbaar gemaakte gegevens, documenteer de noodzaak en neem maatregelen die de impact op betrokkenen minimaliseren. Dit is niet alleen juridisch nodig maar voorkomt ook reputatieschade.
Rechtsgrond, doelbinding en proportionaliteit in de praktijk
De neiging om één generieke rechtsgrond op het hele systeem te plakken, leidt vaak tot discussies. Beter is om per verwerkingsfase te werken. Het richtsnoer benadrukt dat voor EU-instellingen Artikel 5(1)(a) van Verordening 2018/1725 - uitvoering van taken van algemeen belang - het meest toepasselijk is, mits je kunt aantonen dat de instelling hiervoor legitieme autoriteit heeft.
Toestemming als rechtsgrond blijkt in de praktijk lastig. De EDPS benadrukt dat toestemming moet zijn: vrijelijk gegeven, specifiek, geïnformeerd, ondubbelzinnig, en herroepbaar. Bij grote trainingssets is het praktisch vrijwel onmogelijk om aan al deze criteria te voldoen.
Ontwikkeling
Leg vast met welke datasets je werkt, op welke basis en voor welk doel. Als je eigen personeelsgegevens gebruikt voor validatie, beoordeel dan of dit binnen het doel van HR-administratie valt of een nieuwe verwerking vereist.
Inzet in processen
Koppel use-cases aan een duidelijke taakomschrijving of wettelijke basis. Bijvoorbeeld: samenvatten van burgerbrieven binnen de taak van correspondentieafhandeling. Maak zichtbaar waarom AI een passend middel is en welke beperkingen gelden.
Beheer en support
Toegang van leveranciers, foutanalyses en logging moeten een eigen onderbouwing hebben. Werk waar mogelijk met pseudonimisering, dataminimalisatie en duidelijke dataretentie.
DPIA en AI-impactbeoordeling: één werkstroom
De EDPS-checklist is bruikbaar als ruggengraat voor je DPIA en AI-impactbeoordeling. Richt de werkstroom zo in dat je per use-case dezelfde vragen beantwoordt: doel, datastromen, rollen, risico's, maatregelen, monitoring. Koppel dat aan je register van verwerkingen, je modelkaart of systeemfiche en je technische documentatie.
Rol van de Data Protection Officer: De EDPS benadrukt dat DPO's een centrale rol spelen bij de coördinatie van compliance. Dit vereist technisch begrip van systeemlevenscycli en betrokkenheid bij DPIA's vanaf het begin. De DPO moet niet alleen achteraf advies geven, maar vanaf de scope-definitie meekijken.
Zo ontstaat één dossier dat intern standhoudt bij audit en extern uitlegbaar is voor burgers en partners.
Contracteren met leveranciers en partners
Contracten moeten het verhaal bevestigen dat je in je DPIA en register beschrijft. Aandachtspunten:
Rolafbakening
Benoem expliciet per fase wie waarvoor verantwoordelijk is en hoe escalaties werken. Leg gezamenlijke verantwoordelijkheid vast in een artikel 26-afspraak met transparante taakverdeling. Vergeet niet dat leveranciers die zelf doelen bepalen of essentiële middelen kiezen, controller zijn voor die activiteiten.
Ondersteuning van rechten
Leverancier of partner moet praktisch kunnen helpen bij inzage, rectificatie en verwijdering, inclusief filtering van logs en het maskeren van prompts en outputs. Het richtsnoer benadrukt acht kernrechten die gewaarborgd moeten blijven: informatie, inzage, rectificatie, verwijdering, bezwaar, beperking, portabiliteit en herroeping van toestemming.
Technische uitdaging: data subject rights bij GenAI
Het richtsnoer erkent dat er technische uitdagingen zijn bij het identificeren van individuen binnen enorme trainingssets en het beheren van "inferred data" die tijdens gebruik wordt gegenereerd. Dit betekent niet dat rechten niet hoeven te worden gewaarborgd, maar wel dat je specifieke procedures en technische oplossingen moet ontwikkelen.
Denk aan: logging die traceerbaarheid mogelijk maakt, technische mogelijkheden om specifieke trainingsdata te isoleren, en duidelijke procedures voor wanneer volledige naleving technisch onmogelijk is.
Datakwaliteit en retentie
Leg eisen voor datasetbeheer, evaluatie-sets en bewaartermijnen vast. Voorkom dat supportkanalen onnodig persoonsgegevens opslaan. Het richtsnoer benadrukt dat bias in generatieve AI kan voortkomen uit stereotypen in trainingsdata, ondervertegenwoordigde populaties, ontbrekende variabelen, en vooroordelen van ontwikkelaars. Contracten moeten bias-mitigatie expliciet maken.
Beveiliging en locatie
Specificaties over encryptie, sleutelbeheer, locaties van model-hosting en subverwerkers. Beschrijf fallback-opties en exit. Besteed specifieke aandacht aan de eerder genoemde GenAI-specifieke risico's zoals prompt injection en model inversion.
Transparantie richting eindgebruikers
Voorzie in communicatiemateriaal dat uitlegt wanneer AI wordt gebruikt, welke beperkingen gelden en hoe bezwaar kan worden gemaakt.
Rechten van betrokkenen en geautomatiseerde besluitvorming
Bij gebruik van generatieve AI in beslisondersteuning moet je laten zien hoe menselijke tussenkomst is geregeld. Denk aan dossiervorming, een zichtbaar afwijkrecht en het voorkomen dat AI-uitvoer de feitelijke doorslag geeft zonder controle.
Vraag je per proces af of sprake is van geautomatiseerde besluitvorming binnen het toepasselijke regime en zorg voor ingericht bezwaar, inzage en correctie. Voor organisaties buiten de EU-instellingen is de gedachtegang vergelijkbaar: benoem wanneer AI-uitvoer enkel advies is en wanneer het besluitvormingsgewicht krijgt.
Praktijkvoorbeeld 1: Gemeente met GenAI-samenvatter in het KCC
Situatie
Het KCC wil inkomende e-mails samenvatten en antwoordvoorstellen genereren. Een SaaS-leverancier levert het model en de interface.
Aanpak volgens EDPS-richtsnoer
De gemeente is controller voor het gebruik in het KCC. De leverancier is in beginsel verwerker voor hosting, fine-tuning en support, maar kan zelf controller zijn voor eigen modelontwikkeling met andere data. In contracten en register beschrijf je de verwerkingen per fase.
Prompts en output kunnen persoonsgegevens bevatten, dus je regelt retentie, afscherming en een proces voor inzage en verwijdering. De inzet valt onder de taak van correspondentieafhandeling, met noodzaakstoets en minder ingrijpende alternatieven afgewogen.
Kwaliteitscontrole gebeurt via random sampling en menselijke review, met logging die niet langer wordt bewaard dan nodig. Specifieke aandacht voor bias: zijn antwoorden op e-mails in verschillende talen even accuraat? Zijn bepaalde types vragen ondervertegenwoordigd in de trainingset?
Lessen
Rolbepaling per fase voorkomt misverstanden. Door de EDPS-checklist te vertalen naar KCC-werkafspraken kun je het systeem naadloos opnemen in privacy- en security-beheer.
Praktijkvoorbeeld 2: Private leverancier bouwt HR-ondersteuning voor ministerie
Situatie
Een bedrijf ontwikkelt met een foundation model een tool die vacatureteksten opstelt en sollicitaties samenvat. Het ministerie wil de tool in eigen omgeving draaien.
Aanpak volgens EDPS-richtsnoer
Tijdens gezamenlijke ontwikkeling voor een gedeeld doel kan sprake zijn van gezamenlijke verantwoordelijkheid. Leg dit vast met verdeling van taken, waaronder wie verzoeken van betrokkenen behandelt en hoe technische ondersteuning is geregeld.
Na oplevering en inzet door het ministerie met eigen data is het ministerie controller voor de gebruiksfase. De leverancier blijft controller voor eigen ontwikkelprocessen en datasets die hij buiten de opdracht gebruikt. In beide fasen is transparantie nodig richting kandidaten en medewerkers.
Het databeleid beschrijft expliciet hoe trainingsdata en evaluatiesets worden geselecteerd (bijvoorbeeld: representativiteit van diverse kandidatenprofielen), hoe bias wordt gemeten (zoals: vergelijkbare kwaliteit van samenvattingen voor verschillende demografische groepen) en gereduceerd, en hoe logs worden opgeschoond.
Lessen
Door de levenscyclus centraal te stellen, wordt zichtbaar wanneer verantwoordelijkheden verschuiven en welke documentatie daarbij hoort. De EDPS-benadering dwingt tot expliciet maken van wat vaak impliciet blijft.
Zo maak je de EDPS-checklist werkend in je organisatie
Een werkbare aanpak bestaat uit drie lijnen die je parallel trekt:
1. Inventarisatie
Breng alle GenAI-use-cases in kaart met doel, data, modeltype, koppelingen en gebruikersgroepen. Koppel elk item aan een eigenaar en aan je register van verwerkingen. Gebruik de vijf levenscyclusfasen als structuur.
2. Rol- en rechtsgrondmatrix
Teken per use-case de levenscyclus. Bepaal per fase de rolverdeling en wijs per verwerking een rechtsgrond toe. Veranker dit in contracten, proceseigenaren en procedures.
Voorbeeld rol-matrix
Use case: Chatbot voor klantenservice
Fase 1 - Scope: Organisatie = controller (bepaalt doel: klantvragen beantwoorden)
Fase 2 - Model selection: Organisatie = controller, leverancier = adviseur
Fase 3 - Training: Organisatie = controller (eigen klantdata), leverancier = processor (hosting)
Fase 4 - Evaluatie: Organisatie = controller (testcriteria), leverancier = processor (technische tests)
Fase 5 - Productie: Organisatie = controller (gebruik), leverancier = processor (hosting & onderhoud)
Rechtsgrond per fase: Wettelijke taak (klantcontact) in fase 1, 4 en 5. Contractuele verplichting met leverancier in fase 3 en 5 voor processing.
3. Kwaliteits- en rechtenborging
Leg vast hoe je kwaliteit toetst, hoe menselijk toezicht werkt en hoe verzoeken van betrokkenen worden afgehandeld. Gebruik technische controls voor redaction, output-filtering en dataretentie.
Deze drie lijnen vormen samen een werkstroom die je steeds opnieuw kunt toepassen bij nieuwe use-cases en leveranciers.
Accountabiliteitsvereisten: documenteer alles
De EDPS benadrukt herhaaldelijk dat controllers alle mitigatiemaatregelen, risicobeoordelingen en compliance-besluiten moeten documenteren. Dit is niet alleen een formaliteit maar een praktische noodzaak bij audits.
DPIA voor elke nieuwe toepassing
Voor elke nieuwe GenAI-use case een Data Protection Impact Assessment uitvoeren, inclusief specifieke risico's zoals bias en onbedoelde reproductie.
Auditlogs van anonimiseringsprocessen
Documenteer welke anonimiseringsmethoden zijn gebruikt en waarom je concludeert dat heridentificatie "insignificant" is.
Records van interne beslissingen
Leg vast waarom specifieke data-elementen noodzakelijk zijn, waarom bepaalde modellen zijn gekozen, en hoe trade-offs tussen functionaliteit en privacy zijn gemaakt.
Periodieke reviews
Plan regelmatige reviews van je GenAI-systemen om te controleren of doelen, risico's en maatregelen nog actueel zijn.
Wat je morgen kunt doen
Direct toepasbare stappen om het richtsnoer te activeren in je organisatie:
Map je use cases
Leg twee lopende GenAI-use-cases langs de EDPS-checklist en noteer in je register per fase de rolverdeling en rechtsgrond. Gebruik de tabel met vijf levenscyclusfasen als sjabloon.
Review je contracten
Controleer of je contracten de levenscyclusbenadering volgen. Pas verwerkersovereenkomsten en eventuele afspraken over gezamenlijke verantwoordelijkheid waar nodig aan. Let specifiek op: wie bepaalt essentiële middelen in elke fase, hoe wordt ondersteuning bij data subject rights geregeld, en welke specifieke GenAI-beveiligingsrisico's zijn gedekt.
Richt reviewritueel in
Plan een maandelijks reviewmoment: samplen, meten, bijsturen en documenteren. Houd technische en organisatorische maatregelen actueel en zorg dat privacy-officers en auditors makkelijk kunnen meekijken.
Voer bias-assessment uit
Plan een bias-assessment voor je belangrijkste GenAI-toepassing. Controleer of trainingsdata representatief is voor alle doelgroepen en of output systematische verschillen vertoont.
Test betrokkenenrechten
Test je data subject rights procedures met een simulatie. Stel dat iemand inzage vraagt in hoe hun data in het AI-systeem is gebruikt - kun je dit binnen een maand beantwoorden?
Bouw je documentatie
Start met het systematisch documenteren van alle besluiten over modelkeuze, datakwaliteit, bias-mitigatie en technische maatregelen. Dit is je bewijs bij audits.
Met deze stappen maak je het nieuwe richtsnoer direct toepasbaar. Je bouwt aan AI-toepassingen die aantoonbaar zorgvuldig met persoonsgegevens omgaan en daardoor langer houdbaar zijn binnen jouw organisatie.
De bredere context: EDPS als voorbode voor nationale toezichthouders
Het is belangrijk om te begrijpen dat EDPS-richtsnoeren vaak een voorloper zijn van bredere Europese interpretaties. Hoewel dit richtsnoer formeel alleen geldt voor EU-instellingen onder Verordening 2018/1725, zullen nationale toezichthouders zoals de Autoriteit Persoonsgegevens bij hun interpretatie van de AVG zeer waarschijnlijk naar deze argumentatie kijken.
Strategisch voordeel: Private organisaties die proactief de EDPS-benadering overnemen, lopen vooruit op toekomstige verwachtingen van nationale toezichthouders. Dit minimaliseert het risico op correcties en herwerk wanneer er expliciet richtsnoeren voor de private sector komen.
Daarnaast is er een duidelijke lijn tussen dit richtsnoer en de aankomende gezamenlijke richtlijnen van EDPB en de Europese Commissie over de AI Act en GDPR, naar verwachting in Q1 2026. De systematiek van levenscyclusbenadering, expliciete rolverdeling en technische mitigatiemaatregelen zal zeer waarschijnlijk terugkomen in die bredere guidance.
Conclusie: van principes naar werkbare compliance
De herziene EDPS-richtlijnen voor generatieve AI markeren een belangrijke verschuiving van abstracte principes naar concrete, uitvoerbare compliance-eisen. Door de focus op levenscyclusfasen, expliciete rolverdeling en praktische checklists wordt duidelijker wat organisaties moeten doen.
De kernboodschap is helder: generatieve AI vraagt om dezelfde zorgvuldigheid met persoonsgegevens als elke andere verwerking, met extra aandacht voor specifieke risico's zoals bias, onbedoelde reproductie en manipulatie via prompts.
Voor publieke organisaties biedt het richtsnoer direct toepasbare handvatten. Voor private partijen is het een waarschuwing dat verwachtingen over GenAI-compliance concreter worden en dat proactieve implementatie later herwerk voorkomt.
Belangrijkste takeaways
✓ Rolverdeling per levenscyclusfase voorkomt misverstanden en maakt audits beheersbaarder
✓ Één generieke rechtsgrond werkt niet - documenteer per fase waarom verwerking rechtmatig is
✓ Web scraping is geen vrijbrief - openbare data blijft beschermd onder AVG
✓ Bias en beveiligingsrisico's vragen om specifieke technische en organisatorische maatregelen
✓ Documentatie is geen bijzaak maar het bewijs dat je zorgvuldig hebt gehandeld
✓ De EDPS-benadering is een voorbode voor bredere Europese interpretaties onder de AI Act
Organisaties die nu beginnen met implementatie volgens deze lijn, bouwen niet alleen aan compliance maar aan vertrouwen bij gebruikers, medewerkers en toezichthouders. In een tijd waarin AI-toepassingen steeds meer rechtstreeks met burgers en klanten interacteren, is dat vertrouwen een strategisch kapitaal.
Bronnen en verdere lezing
- EDPS: Guidance on Generative AI, strengthening data protection in a rapidly changing digital era (28 oktober 2025)
- EDPS: Press release: EDPS unveils revised Guidance on Generative AI (28 oktober 2025)
- EDPS: Revised Generative AI Orientations - Full document (PDF) (28 oktober 2025)
- EDPB: Opinion 28/2024 on anonymisation (oktober 2024)
- Verordening (EU) 2018/1725: EU Data Protection Regulation for institutions