Actuele context (maart 2026): De EU AI Act is sinds augustus 2024 van kracht. De verbodsbepalingen gelden sinds februari 2025, de AI-geletterdheidsplicht sinds februari 2026. De Autoriteit Persoonsgegevens (AP) is in Nederland aangewezen als toezichthouder voor zowel de AVG als de AI Act, wat de integratie van beide regelgevingen in de praktijk versterkt. Tegelijkertijd publiceerde de AP in 2025 en 2026 meerdere richtsnoeren en handhavingsbesluiten die de samenloop van AI en privacy concreet invullen.
De relatie tussen kunstmatige intelligentie en privacy is een van de meest complexe juridische en organisatorische vraagstukken van dit moment. AI-systemen zijn inherent data-intensief: ze hebben grote hoeveelheden gegevens nodig om te leren, te functioneren en hun prestaties te verbeteren. Tegelijkertijd stellen zowel de Algemene Verordening Gegevensbescherming (AVG) als de EU AI Act strenge eisen aan de wijze waarop persoonsgegevens worden verzameld, verwerkt en beschermd.
Voor organisaties betekent dit dat zij twee regelgevende kaders tegelijkertijd moeten navigeren. Dit is geen theoretisch vraagstuk: de Autoriteit Persoonsgegevens heeft in 2025 en begin 2026 meerdere handhavingsacties ondernomen tegen organisaties die AI inzetten zonder adequate privacywaarborgen. Dit artikel biedt een praktische gids voor het samenspel van AI en privacy, en laat zien welke stappen organisaties nu moeten nemen.
Waarom privacy en AI onlosmakelijk verbonden zijn
AI-systemen, van traditionele machine learning tot moderne generatieve modellen, zijn afhankelijk van data. En in veel gevallen gaat het om persoonsgegevens. De privacyrisico's van AI zijn divers en soms subtiel:
Biometrische gegevens vormen een bijzondere categorie. Gezichtsherkenning, stemherkenning en gedragsbiometrie worden steeds vaker ingezet in AI-systemen, van toegangscontrole tot klantidentificatie. De AI Act kent specifieke verboden en beperkingen voor biometrische AI-toepassingen, die bovenop de AVG-bescherming komen. Zie verboden AI-systemen voor het volledige overzicht.
Gezondheidsgegevens worden in toenemende mate gebruikt voor AI-gestuurde diagnose, behandelplannen en zorgoptimalisatie. De verwerking van deze gegevens vereist niet alleen een rechtmatige grondslag onder de AVG (artikel 9), maar ook compliance met de hoog-risico vereisten van de AI Act wanneer het AI-systeem medische beslissingen ondersteunt.
Financiele gegevens worden gebruikt in AI-systemen voor kredietbeoordeling, fraudedetectie en risicoscoring. Deze toepassingen vallen vrijwel altijd onder de hoog-risico categorie van de AI Act en zijn tegelijkertijd onderworpen aan strenge AVG-vereisten rondom geautomatiseerde besluitvorming.
Gedragsdata (locatiegegevens, browsegeschiedenis, aankooppatronen) wordt ingezet voor personalisatie, voorspellende analyses en targeting. Hoewel veel van deze toepassingen onder minimaal risico vallen in de AI Act, blijven de AVG-vereisten rondom doelbinding, dataminimalisatie en toestemming onverkort van toepassing.
De belangrijkste privacy-uitdagingen bij AI
Transparantie en uitlegbaarheid
Het spanningsveld tussen AI en transparantie is fundamenteel. Veel AI-modellen, met name deep learning-systemen, functioneren als zogenaamde black boxes: het is technisch moeilijk of onmogelijk om precies te verklaren waarom een model tot een bepaalde output komt. Dit botst met meerdere wettelijke vereisten:
- Artikel 13-15 AVG geven betrokkenen het recht op informatie over de logica achter geautomatiseerde besluitvorming.
- Artikel 22 AVG biedt bescherming tegen uitsluitend geautomatiseerde besluitvorming met rechtsgevolgen.
- Artikel 13 AI Act vereist dat hoog-risico AI-systemen voldoende transparant zijn voor gebruikers om de output te interpreteren en te controleren.
In de praktijk betekent dit dat organisaties moeten investeren in explainable AI (XAI) technieken, en dat zij duidelijke processen moeten inrichten voor het verstrekken van uitleg aan betrokkenen. Voor hoog-risico systemen is dit niet optioneel: het is een wettelijke verplichting.
Datahonger versus dataminimalisatie
AI-systemen presteren doorgaans beter naarmate ze meer data tot hun beschikking hebben. Dit staat op gespannen voet met het dataminimalisatieprincipe uit de AVG (artikel 5, lid 1, sub c), dat bepaalt dat persoonsgegevens toereikend, ter zake dienend en beperkt moeten zijn tot wat noodzakelijk is voor het verwerkingsdoel.
De AI Act voegt hier een extra dimensie aan toe. Artikel 10 stelt specifieke eisen aan de data die worden gebruikt voor het trainen, valideren en testen van hoog-risico AI-systemen. Deze data moeten relevant, representatief, foutenvrij en volledig zijn. Tegelijkertijd moeten organisaties ervoor zorgen dat zij niet meer persoonsgegevens verwerken dan strikt noodzakelijk.
Praktische aanpak: dataminimalisatie bij AI
Een effectieve strategie om dataminimalisatie en datakwaliteit te combineren:
- Privacy-enhancing technologies (PETs): Gebruik technieken als federated learning, differential privacy en synthetische data om AI-modellen te trainen zonder onnodig veel persoonsgegevens te verwerken.
- Doelspecifieke datasets: Stel voor elk AI-project een dataset samen die specifiek is afgestemd op het beoogde doel, in plaats van een "data lake" benadering.
- Regelmatige evaluatie: Beoordeel periodiek of de omvang van de dataset nog proportioneel is ten opzichte van het doel, en verwijder gegevens die niet langer noodzakelijk zijn.
- Pseudonimisering en anonimisering: Waar mogelijk, werk met gepseudonimiseerde of geanonimiseerde data. Let wel: pseudonimisering is niet hetzelfde als anonimisering, en gepseudonimiseerde data vallen nog steeds onder de AVG.
Hergebruik van data (doelbinding)
Een veelvoorkomend probleem in de praktijk is dat data die voor een specifiek doel zijn verzameld, later worden hergebruikt voor AI-toepassingen. Een klantenbestand dat is opgebouwd voor facturering wordt ingezet voor een AI-gestuurd voorspellingsmodel. Marketingdata worden gebruikt voor risicoscoring. Dit hergebruik kan in strijd zijn met het doelbindingsbeginsel uit de AVG (artikel 5, lid 1, sub b).
De oplossing ligt in het uitvoeren van een verenigbaarheidstoets (artikel 6, lid 4, AVG) voordat data worden hergebruikt voor AI-doeleinden. Is het nieuwe doel niet verenigbaar met het oorspronkelijke doel, dan is een nieuwe rechtmatige grondslag nodig, wat in de praktijk vaak neerkomt op expliciete toestemming of een wettelijke basis.
Geautomatiseerde besluitvorming en profilering
Artikel 22 AVG biedt betrokkenen bescherming tegen besluiten die uitsluitend op geautomatiseerde verwerking, inclusief profilering, zijn gebaseerd en die rechtsgevolgen hebben of hen anderszins in aanmerkelijke mate treffen. Dit artikel krijgt een extra dimensie door de AI Act, die voor hoog-risico AI-systemen verplicht stelt dat er betekenisvol menselijk toezicht is.
De combinatie van artikel 22 AVG en artikel 14 AI Act betekent in de praktijk dat organisaties moeten waarborgen dat:
- Geen enkel besluit met significante impact uitsluitend door een AI-systeem wordt genomen
- Er een gekwalificeerd persoon is die het AI-advies beoordeelt voordat een besluit wordt genomen
- Betrokkenen het recht hebben om het besluit aan te vechten en menselijke herbeoordeling te vragen
- Het menselijk toezicht niet slechts een formaliteit is ("rubber stamping"), maar daadwerkelijk inhoudelijk en effectief
Beveiligingsrisico's
AI-systemen introduceren nieuwe beveiligingsrisico's die bovenop de bestaande AVG-vereisten (artikel 32) komen:
- Data poisoning: Het opzettelijk manipuleren van trainingsdata om een AI-systeem te beinvloeden.
- Model inversion attacks: Technieken waarmee kwaadwillenden persoonsgegevens uit een getraind model kunnen extraheren.
- Adversarial attacks: Subtiele manipulaties van input die een AI-systeem tot verkeerde conclusies brengen.
- Supply chain risico's: Kwetsbaarheden in voorgetrainde modellen of datasets van derden.
De AI Act verplicht voor hoog-risico systemen een robuust beveiligingsniveau (artikel 15) dat specifiek rekening houdt met deze AI-gerelateerde dreigingen.
Leer de EU AI Act door te doen
Geen slides. Geen saaie e-learning. Probeer een interactieve module.
Probeer het zelf
3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.
Het wettelijk kader: AVG en AI Act samen
Het is essentieel om te begrijpen dat de AVG en de AI Act twee afzonderlijke maar complementaire regelgevingen zijn. De AI Act vervangt de AVG niet. Elke organisatie die AI-systemen inzet die persoonsgegevens verwerken, moet aan beide voldoen.
Waar de AVG en AI Act overlappen
- Transparantie: Beide regelgevingen eisen transparantie, maar vanuit een ander perspectief. De AVG richt zich op informatie aan betrokkenen over de verwerking van hun persoonsgegevens. De AI Act richt zich op transparantie over de werking en beperkingen van het AI-systeem richting de gebruiker (deployer).
- Risicobeoordeling: De AVG vereist een Data Protection Impact Assessment (DPIA) voor verwerkingen met een hoog risico voor betrokkenen. De AI Act vereist een grondrechteneffectbeoordeling (FRIA) voor hoog-risico AI-systemen die door publieke instanties worden ingezet. Voor een vergelijking, zie DPIA voor AI-systemen: wanneer verplicht.
- Datakwaliteit: De AVG eist dat persoonsgegevens juist zijn (artikel 5, lid 1, sub d). De AI Act stelt aanvullende eisen aan de kwaliteit van trainings- en testdata (artikel 10).
- Menselijk toezicht: De AVG beschermt tegen uitsluitend geautomatiseerde besluitvorming (artikel 22). De AI Act verplicht menselijk toezicht voor hoog-risico systemen (artikel 14).
Waar ze verschillen
- Scope: De AVG is beperkt tot de verwerking van persoonsgegevens. De AI Act is van toepassing op AI-systemen ongeacht of zij persoonsgegevens verwerken. Een AI-systeem dat uitsluitend werkt met geanonimiseerde data valt buiten de AVG maar kan wel onder de AI Act vallen.
- Focus: De AVG beschermt de privacy van individuen. De AI Act beschermt een breder scala aan grondrechten, waaronder non-discriminatie, veiligheid en menselijke autonomie.
- Handhaving: De AVG wordt gehandhaafd door gegevensbeschermingsautoriteiten. De AI Act wordt gehandhaafd door markttoezichtautoriteiten. In Nederland valt het samen: de AP is voor beide aangewezen.
DPIA en FRIA: twee assessments, een geintegreerde aanpak
Organisaties die hoog-risico AI-systemen inzetten die persoonsgegevens verwerken, moeten zowel een DPIA (AVG) als een FRIA (AI Act) uitvoeren. In de praktijk is het raadzaam om deze assessments te integreren in een enkel, samenhangend proces:
- DPIA: Richt zich op privacyrisico's, verwerkingsgronden, rechten van betrokkenen, en technische en organisatorische maatregelen.
- FRIA: Richt zich op de bredere impact op grondrechten, waaronder non-discriminatie, toegankelijkheid en menselijke waardigheid.
- Geintegreerd: Door beide assessments samen uit te voeren, voorkomt u dubbel werk en krijgt u een completer beeld van de risico's.
Gebruik de FRIA-generator als startpunt voor de grondrechtentoetsing.
Concrete stappen voor organisaties in 2026
De integratie van AI en privacy is geen eenmalig project maar een doorlopend proces. Hier volgen concrete stappen die organisaties nu moeten nemen.
1. Voer een gecombineerde AI- en privacy-inventarisatie uit
Breng in kaart welke AI-systemen uw organisatie gebruikt, welke persoonsgegevens zij verwerken, en hoe deze systemen zijn geclassificeerd onder de AI Act. Gebruik de risicoclassificatie decision tree als hulpmiddel. Koppel deze inventarisatie aan uw bestaande verwerkingsregister (artikel 30 AVG).
2. Integreer DPIA's en FRIA's
Ontwikkel een geintegreerd beoordelingskader dat zowel de privacyrisico's (DPIA) als de bredere grondrechtenrisico's (FRIA) adresseert. Dit voorkomt dubbel werk en zorgt voor een compleet risicobeeld.
3. Waarborg transparantie en uitlegbaarheid
Investeer in explainable AI-technieken en ontwikkel heldere communicatie richting betrokkenen over hoe AI-systemen werken en welke invloed zij hebben op beslissingen. Dit is zowel een AVG- als een AI Act-verplichting.
4. Implementeer privacy by design en AI by design
Neem privacy- en AI-vereisten vanaf het begin mee in het ontwerp en de ontwikkeling van AI-systemen. Dit bespaart kosten en tijd ten opzichte van achteraf aanpassen. Lees meer over AI by design als ontwerpstandaard.
5. Richt betekenisvol menselijk toezicht in
Zorg dat menselijk toezicht op AI-beslissingen niet slechts een formaliteit is. De persoon die toezicht houdt, moet over de kennis, de bevoegdheid en de middelen beschikken om het AI-advies kritisch te beoordelen en zo nodig te overrulen. Lees meer over betekenisvolle menselijke tussenkomst in de praktijk.
6. Beveilig AI-systemen specifiek
Ga verder dan standaard IT-beveiliging. Adresseer AI-specifieke dreigingen als data poisoning, model extraction en adversarial attacks. De AI Act vereist dit expliciet voor hoog-risico systemen (artikel 15).
7. Investeer in AI-geletterdheid
Zorg dat medewerkers die werken met AI-systemen begrijpen wat de privacyimplicaties zijn en hoe zij hiermee moeten omgaan. De AI-geletterdheidsplicht van artikel 4 AI Act versterkt dit, maar privacybewustzijn moet een integraal onderdeel zijn van het trainingsprogramma.
8. Werk samen met juridische en technische experts
De complexiteit van de dubbele compliance (AVG plus AI Act) vereist een multidisciplinaire aanpak. Breng data protection officers, AI-engineers, compliance-officers en business stakeholders samen in een gestructureerd samenwerkingsverband. De AI-governance structuur die de financiele sector opzet, kan als voorbeeld dienen voor andere sectoren.
De rol van de Autoriteit Persoonsgegevens
De aanwijzing van de AP als toezichthouder voor zowel de AVG als de AI Act creëert een unieke situatie in Nederland. De AP kan nu integraal handhaven op zowel privacy- als AI-overtredingen, wat betekent dat organisaties niet twee afzonderlijke toezichthouders hoeven te bevredigen, maar wel aan een hoger gecombineerd verwachtingsniveau moeten voldoen.
De AP heeft in 2025 en begin 2026 meerdere signalen afgegeven dat zij actief zal handhaven op het snijvlak van AI en privacy. De publicatie van de AI-impactbarometer, de waarschuwingen rondom AI-agents en de handhavingsacties tegen organisaties als LinkedIn en Clearview AI laten zien dat de AP deze rol serieus neemt.
Vooruitblik
De convergentie van AI en privacy zal de komende jaren alleen maar intensiever worden. Met de opkomst van generatieve AI, multimodale modellen en AI-agents worden de privacyvraagstukken steeds complexer. Modellen die zijn getraind op internetdata bevatten onvermijdelijk persoonsgegevens. AI-agents die autonoom handelen namens gebruikers creeren nieuwe verwerkingssituaties die de bestaande juridische kaders op de proef stellen.
Organisaties die nu investeren in een robuust privacy- en AI-governancekader, bouwen niet alleen aan compliance maar ook aan het vertrouwen van klanten, partners en toezichthouders. In een markt waarin vertrouwen steeds meer een onderscheidende factor wordt, is dit geen kostenpost maar een investering.