Een diepgaande analyse van de kritische bevindingen van de Nederlandse toezichthouder
Cruciale inzichten: de Autoriteit Persoonsgegevens (AP) heeft in haar Rapportage AI & Algoritmes Nederland (RAN) zomer 2025 een vernietigende analyse gepubliceerd van AI-systemen voor emotieherkenning, met directe implicaties voor compliance onder de EU AI Act.
De onverbiddelijke conclusie van de AP
De Autoriteit Persoonsgegevens (AP) heeft in haar halfjaarlijkse Rapportage AI & Algoritmes Nederland (RAN) voor de zomer van 2025 een diepgaand en kritisch hoofdstuk gewijd aan AI-systemen voor emotieherkenning. De conclusie van de toezichthouder is onverbiddelijk: de technologie is gebouwd op "omstreden aannames" en de inzet ervan is zowel "dubieus" als "risicovol".
Voor organisaties die zich voorbereiden op de AI-verordening, biedt deze analyse cruciale inzichten. De rapportage legt niet alleen de fundamentele zwaktes van de technologie bloot, maar verbindt deze ook direct aan de risico's op discriminatie, privacyschendingen en de inperking van menselijke autonomie.
Het juridisch kader: emotieherkenning in de AI-verordening
Voordat we de analyse van de AP induiken, is het essentieel om het speelveld van de AI-verordening scherp te stellen. Emotieherkenning op basis van biometrie wordt door de Europese wetgever met groot wantrouwen benaderd.
De AI-verordening hanteert een gedifferentieerde benadering afhankelijk van de context:
- Absoluut verbod: op de werkplek en in onderwijsinstellingen
- Hoog-risico classificatie: in alle andere contexten met biometrische categorisering
- AVG-koppeling: strikte eisen voor bijzondere persoonsgegevens
Absoluut verbod in bepaalde contexten
De inzet van AI-systemen die emoties of gemoedstoestanden afleiden uit biometrische data is strikt verboden op de werkplek en in onderwijsinstellingen. De wetgever erkent hier de ongelijke machtsverhouding, die een vrije en geïnformeerde toestemming van werknemers en leerlingen illusoir maakt.
Hoog-risico classificatie
Buiten deze verboden contexten wordt elk AI-systeem dat biometrische gegevens gebruikt om personen in categorieën in te delen (biometrische categorisering) in principe als hoog-risico aangemerkt onder Annex III van de verordening. Dit geldt dus expliciet voor emotieherkenningssystemen die worden ingezet in bijvoorbeeld de publieke ruimte, marketing of de zorg.
Deze classificatie activeert een heel regime van verplichtingen, waaronder risicomanagement, datakwaliteit, transparantie, menselijk toezicht en robuustheid.
Verwevenheid met de AVG
De AP benadrukt terecht de koppeling met de AVG. Biometrische gegevens die worden verwerkt met het oog op unieke identificatie zijn bijzondere persoonsgegevens (Art. 9 AVG). De verwerking van zeer intieme en privacygevoelige data, zoals afgeleide emoties, vereist een solide grondslag en strikte naleving van de beginselen van gegevensbescherming.
De analyse van de AP: een fundamenteel wankel fundament
De strenge regulering is geen toeval. De AP concludeert dat de technologie zelf is gebouwd op een "wankele toren" van wetenschappelijke aannames. Dit is een cruciaal argument voor organisaties die een risicoanalyse of een Fundamental Rights Impact Assessment (FRIA) moeten uitvoeren.
Veel systemen gaan uit van het idee dat emoties universeel zijn en door iedereen op dezelfde manier worden geuit. Culturele, individuele en contextuele verschillen worden genegeerd.
AI-systemen meten geen emoties; ze meten fysieke signalen zoals hartslag of gezichtsuitdrukkingen. De koppeling tussen signaal en emotie is hoogst onbetrouwbaar.
Het discriminatierisico
De AP wijst op studies waaruit blijkt dat systemen negatievere emoties toekennen aan mensen met een donkere huidskleur, een direct en onacceptabel gevolg van bevooroordeelde trainingsdata. Een systeem dat getraind is op een beperkte, vaak westerse dataset, zal onvermijdelijk leiden tot misinterpretaties en discriminatie.
De onbetrouwbaarheid van proxies
Zoals de AP-voorzitter stelt: "Een hoge hartslag is immers niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede". Deze onbetrouwbaarheid raakt direct aan de vereisten van robuustheid en nauwkeurigheid die de AI-verordening stelt aan hoog-risicosystemen.
Risico's in de praktijk: bevindingen uit de AP-verdieping
De AP heeft de theorie getoetst aan de praktijk door de inzet bij wearables, taalmodellen en klantenservices te onderzoeken. De bevindingen hebben directe implicaties voor compliance.
Wearables: gebrek aan transparantie
De praktijktest toont een significant gebrek aan transparantie. Gebruikers krijgen scores en grafieken over hun stressniveau, maar de onderliggende logica van het algoritme is een black box. Dit staat op gespannen voet met het recht op uitleg onder de AI-verordening (Art. 86-87) en de informatieplicht onder de AVG.
Compliance-risico: de objectieve presentatie van subjectieve en onbetrouwbare data is misleidend en kan leiden tot verkeerde beslissingen door gebruikers.
Taalmodellen (GPAI): inherente capaciteiten
De analyse van General-Purpose AI (GPAI) modellen is bijzonder relevant. Deze modellen kunnen emoties 'herkennen' als een bijkomende, niet expliciet getrainde vaardigheid. Ze baseren hun analyses op stereotype kenmerken en verwijzen soms zelfs naar de omstreden emotietheorieën uit hun trainingsdata.
Voor organisaties die GPAI-modellen integreren in hun eigen (hoog-risico) systemen, betekent dit een significant compliance-risico. De inherente en ondoorzichtige capaciteiten van het onderliggende model moeten meegenomen worden in de eigen risicobeoordeling.
Klantenservice: onvoldoende rechtvaardiging
Het onderzoek naar klantenservices legt de vinger op de zere plek van transparantie en doelbinding. De rechtvaardiging "kwaliteits- en trainingsdoeleinden" is volstrekt onvoldoende om de verwerking van (bijzondere) persoonsgegevens voor emotieherkenning te legitimeren. Klanten worden niet expliciet en specifiek geïnformeerd, wat een geldige toestemming in de weg staat.
De dubbele toets: productveiligheid versus maatschappelijke wenselijkheid
Een van de meest scherpzinnige observaties van de AP is het onderscheid tussen productregulering en de wenselijkheidsvraag.
De AI-verordening functioneert primair als productwetgeving. Het doel is te waarborgen dat een hoog-risicosysteem dat op de markt komt, veilig is en voldoet aan de gestelde eisen. Dit is vergelijkbaar met vuurwerk: wetgeving zorgt dat het product zelf veilig is, maar de politieke afweging bepaalt of en waar we het willen afsteken.
Voor emotieherkenning betekent dit dat een systeem technisch gezien aan alle eisen van de AI-verordening kan voldoen, maar dat de inzet ervan in een specifieke context maatschappelijk onwenselijk kan zijn.
Dit legt een zware ethische verantwoordelijkheid bij organisaties. Het simpelweg afvinken van de compliance-eisen van de AI-verordening is niet genoeg. Een diepgaande Fundamental Rights Impact Assessment (FRIA), die voor overheden en bepaalde private partijen verplicht wordt, moet ook deze wenselijkheidsvraag adresseren.
Praktische implicaties voor organisaties
De rapportage van de AP is geen vrijblijvend advies; het is een duidelijke indicatie van hoe de Nederlandse toezichthouder de risico's van deze technologie weegt.
Actiegebied | Concrete maatregelen | Compliance-impact |
---|---|---|
Classificatie | Verifieer of toepassing onder verbod Art. 5(1)(f) valt | Hoog - kan gebruik volledig uitsluiten |
Transparantie | Expliciete informatie over inzet, logica en risico's | Hoog - vereist onder Art. 86-87 AI Act |
Impact Assessment | DPIA en FRIA moeten discriminatierisico's adresseren | Middel - documentatieverplichting |
Leveranciers | Kritische eisen aan trainingsdata en validatie | Middel - contractuele waarborgen |
Vijf concrete aanbevelingen voor organisaties
1. Wees uiterst terughoudend
De fundamentele gebreken van de technologie zijn zo groot dat het gebruik ervan per definitie risicovol is. Overweeg of er alternatieven zijn die het doel op een minder indringende en meer betrouwbare manier kunnen bereiken.
2. Ken uw classificatie
Verifieer of uw toepassing onder het verbod van artikel 5(1)(f) valt. Zo niet, ga er dan vanuit dat het een hoog-risicosysteem onder Annex III betreft en richt uw compliance-processen hierop in.
3. Borg echte transparantie
De vage juridische disclaimers die de AP signaleert, zullen onder de AI-verordening niet volstaan. Wees expliciet over de inzet van het systeem, de logica, de risico's en de rechten van de betrokkene.
4. Voer een grondige impact assessment uit
Een DPIA (onder AVG) en FRIA (onder AI-verordening) moeten de fundamentele wetenschappelijke zwaktes en de risico's op discriminatie die de AP benoemt, expliciet adresseren.
5. Stel kritische eisen aan leveranciers
Indien u een systeem van derden inkoopt, vraag dan door. Eis transparantie over de trainingsdata, de validatie, de bekende beperkingen en de mate van bias.
Praktische tip: documenteer waarom, ondanks de door de AP gesignaleerde zwaktes, de inzet van het systeem proportioneel en noodzakelijk is. Leg deze afweging expliciet vast in uw compliance-documentatie.
Conclusie: een duidelijke lijn in het zand
De AP heeft met deze rapportage een duidelijke lijn in het zand getrokken. De boodschap aan de markt is helder: de tijd van onkritische en ondoorzichtige inzet van emotieherkenning is voorbij. De AI-verordening formaliseert dit wantrouwen, en de AP laat zien dat zij scherp zal toezien op de naleving.
Voor organisaties betekent dit dat emotieherkenning niet langer kan worden beschouwd als een neutrale technologie. Het is een hoog-risico toepassing die fundamentele vragen oproept over discriminatie, privacy en menselijke waardigheid. De tijd van experimenteren zonder consequenties is definitief voorbij.
Bronnen
- Autoriteit Persoonsgegevens (2025).Emoties herkennen met AI: dubieus en risicovol
- Autoriteit Persoonsgegevens (2025).Rapportage AI & Algoritmes Nederland (RAN) - juli 2025
Dit artikel is een initiatief van Embed AI. Wij helpen organisaties bij het navigeren door de complexiteit van de EU AI Act en het ontwikkelen van verantwoorde AI-strategieën. Heeft u vragen over emotieherkenning en compliance? Neem contact met ons op.