AP rapportage zomer 2025: emotieherkenning onder de AI-verordening is 'dubieus en risicovol'

9 min leestijd
Engelse versie niet beschikbaar

Een diepgaande analyse van de kritische bevindingen van de Nederlandse toezichthouder

Cruciale inzichten: de Autoriteit Persoonsgegevens (AP) heeft in haar Rapportage AI & Algoritmes Nederland (RAN) zomer 2025 een vernietigende analyse gepubliceerd van AI-systemen voor emotieherkenning, met directe implicaties voor compliance onder de EU AI Act.

De onverbiddelijke conclusie van de AP

De Autoriteit Persoonsgegevens (AP) heeft in haar halfjaarlijkse Rapportage AI & Algoritmes Nederland (RAN) voor de zomer van 2025 een diepgaand en kritisch hoofdstuk gewijd aan AI-systemen voor emotieherkenning. De conclusie van de toezichthouder is onverbiddelijk: de technologie is gebouwd op "omstreden aannames" en de inzet ervan is zowel "dubieus" als "risicovol".

Voor organisaties die zich voorbereiden op de AI-verordening, biedt deze analyse cruciale inzichten. De rapportage legt niet alleen de fundamentele zwaktes van de technologie bloot, maar verbindt deze ook direct aan de risico's op discriminatie, privacyschendingen en de inperking van menselijke autonomie.

Het juridisch kader: emotieherkenning in de AI-verordening

Voordat we de analyse van de AP induiken, is het essentieel om het speelveld van de AI-verordening scherp te stellen. Emotieherkenning op basis van biometrie wordt door de Europese wetgever met groot wantrouwen benaderd.

De AI-verordening hanteert een gedifferentieerde benadering afhankelijk van de context:

  • Absoluut verbod: op de werkplek en in onderwijsinstellingen
  • Hoog-risico classificatie: in alle andere contexten met biometrische categorisering
  • AVG-koppeling: strikte eisen voor bijzondere persoonsgegevens

Absoluut verbod in bepaalde contexten

De inzet van AI-systemen die emoties of gemoedstoestanden afleiden uit biometrische data is strikt verboden op de werkplek en in onderwijsinstellingen. De wetgever erkent hier de ongelijke machtsverhouding, die een vrije en geïnformeerde toestemming van werknemers en leerlingen illusoir maakt.

Hoog-risico classificatie

Buiten deze verboden contexten wordt elk AI-systeem dat biometrische gegevens gebruikt om personen in categorieën in te delen (biometrische categorisering) in principe als hoog-risico aangemerkt onder Annex III van de verordening. Dit geldt dus expliciet voor emotieherkenningssystemen die worden ingezet in bijvoorbeeld de publieke ruimte, marketing of de zorg.

Deze classificatie activeert een heel regime van verplichtingen, waaronder risicomanagement, datakwaliteit, transparantie, menselijk toezicht en robuustheid.

Verwevenheid met de AVG

De AP benadrukt terecht de koppeling met de AVG. Biometrische gegevens die worden verwerkt met het oog op unieke identificatie zijn bijzondere persoonsgegevens (Art. 9 AVG). De verwerking van zeer intieme en privacygevoelige data, zoals afgeleide emoties, vereist een solide grondslag en strikte naleving van de beginselen van gegevensbescherming.

De analyse van de AP: een fundamenteel wankel fundament

De strenge regulering is geen toeval. De AP concludeert dat de technologie zelf is gebouwd op een "wankele toren" van wetenschappelijke aannames. Dit is een cruciaal argument voor organisaties die een risicoanalyse of een Fundamental Rights Impact Assessment (FRIA) moeten uitvoeren.

Veel systemen gaan uit van het idee dat emoties universeel zijn en door iedereen op dezelfde manier worden geuit. Culturele, individuele en contextuele verschillen worden genegeerd.

AI-systemen meten geen emoties; ze meten fysieke signalen zoals hartslag of gezichtsuitdrukkingen. De koppeling tussen signaal en emotie is hoogst onbetrouwbaar.

Het discriminatierisico

De AP wijst op studies waaruit blijkt dat systemen negatievere emoties toekennen aan mensen met een donkere huidskleur, een direct en onacceptabel gevolg van bevooroordeelde trainingsdata. Een systeem dat getraind is op een beperkte, vaak westerse dataset, zal onvermijdelijk leiden tot misinterpretaties en discriminatie.

De onbetrouwbaarheid van proxies

Zoals de AP-voorzitter stelt: "Een hoge hartslag is immers niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede". Deze onbetrouwbaarheid raakt direct aan de vereisten van robuustheid en nauwkeurigheid die de AI-verordening stelt aan hoog-risicosystemen.

Risico's in de praktijk: bevindingen uit de AP-verdieping

De AP heeft de theorie getoetst aan de praktijk door de inzet bij wearables, taalmodellen en klantenservices te onderzoeken. De bevindingen hebben directe implicaties voor compliance.

Wearables: gebrek aan transparantie

De praktijktest toont een significant gebrek aan transparantie. Gebruikers krijgen scores en grafieken over hun stressniveau, maar de onderliggende logica van het algoritme is een black box. Dit staat op gespannen voet met het recht op uitleg onder de AI-verordening (Art. 86-87) en de informatieplicht onder de AVG.

Compliance-risico: de objectieve presentatie van subjectieve en onbetrouwbare data is misleidend en kan leiden tot verkeerde beslissingen door gebruikers.

Taalmodellen (GPAI): inherente capaciteiten

De analyse van General-Purpose AI (GPAI) modellen is bijzonder relevant. Deze modellen kunnen emoties 'herkennen' als een bijkomende, niet expliciet getrainde vaardigheid. Ze baseren hun analyses op stereotype kenmerken en verwijzen soms zelfs naar de omstreden emotietheorieën uit hun trainingsdata.

Voor organisaties die GPAI-modellen integreren in hun eigen (hoog-risico) systemen, betekent dit een significant compliance-risico. De inherente en ondoorzichtige capaciteiten van het onderliggende model moeten meegenomen worden in de eigen risicobeoordeling.

Klantenservice: onvoldoende rechtvaardiging

Het onderzoek naar klantenservices legt de vinger op de zere plek van transparantie en doelbinding. De rechtvaardiging "kwaliteits- en trainingsdoeleinden" is volstrekt onvoldoende om de verwerking van (bijzondere) persoonsgegevens voor emotieherkenning te legitimeren. Klanten worden niet expliciet en specifiek geïnformeerd, wat een geldige toestemming in de weg staat.

De dubbele toets: productveiligheid versus maatschappelijke wenselijkheid

Een van de meest scherpzinnige observaties van de AP is het onderscheid tussen productregulering en de wenselijkheidsvraag.

De AI-verordening functioneert primair als productwetgeving. Het doel is te waarborgen dat een hoog-risicosysteem dat op de markt komt, veilig is en voldoet aan de gestelde eisen. Dit is vergelijkbaar met vuurwerk: wetgeving zorgt dat het product zelf veilig is, maar de politieke afweging bepaalt of en waar we het willen afsteken.

Voor emotieherkenning betekent dit dat een systeem technisch gezien aan alle eisen van de AI-verordening kan voldoen, maar dat de inzet ervan in een specifieke context maatschappelijk onwenselijk kan zijn.

Dit legt een zware ethische verantwoordelijkheid bij organisaties. Het simpelweg afvinken van de compliance-eisen van de AI-verordening is niet genoeg. Een diepgaande Fundamental Rights Impact Assessment (FRIA), die voor overheden en bepaalde private partijen verplicht wordt, moet ook deze wenselijkheidsvraag adresseren.

Praktische implicaties voor organisaties

De rapportage van de AP is geen vrijblijvend advies; het is een duidelijke indicatie van hoe de Nederlandse toezichthouder de risico's van deze technologie weegt.

ActiegebiedConcrete maatregelenCompliance-impact
ClassificatieVerifieer of toepassing onder verbod Art. 5(1)(f) valtHoog - kan gebruik volledig uitsluiten
TransparantieExpliciete informatie over inzet, logica en risico'sHoog - vereist onder Art. 86-87 AI Act
Impact AssessmentDPIA en FRIA moeten discriminatierisico's adresserenMiddel - documentatieverplichting
LeveranciersKritische eisen aan trainingsdata en validatieMiddel - contractuele waarborgen

Vijf concrete aanbevelingen voor organisaties

1. Wees uiterst terughoudend

De fundamentele gebreken van de technologie zijn zo groot dat het gebruik ervan per definitie risicovol is. Overweeg of er alternatieven zijn die het doel op een minder indringende en meer betrouwbare manier kunnen bereiken.

2. Ken uw classificatie

Verifieer of uw toepassing onder het verbod van artikel 5(1)(f) valt. Zo niet, ga er dan vanuit dat het een hoog-risicosysteem onder Annex III betreft en richt uw compliance-processen hierop in.

3. Borg echte transparantie

De vage juridische disclaimers die de AP signaleert, zullen onder de AI-verordening niet volstaan. Wees expliciet over de inzet van het systeem, de logica, de risico's en de rechten van de betrokkene.

4. Voer een grondige impact assessment uit

Een DPIA (onder AVG) en FRIA (onder AI-verordening) moeten de fundamentele wetenschappelijke zwaktes en de risico's op discriminatie die de AP benoemt, expliciet adresseren.

5. Stel kritische eisen aan leveranciers

Indien u een systeem van derden inkoopt, vraag dan door. Eis transparantie over de trainingsdata, de validatie, de bekende beperkingen en de mate van bias.

Praktische tip: documenteer waarom, ondanks de door de AP gesignaleerde zwaktes, de inzet van het systeem proportioneel en noodzakelijk is. Leg deze afweging expliciet vast in uw compliance-documentatie.

Conclusie: een duidelijke lijn in het zand

De AP heeft met deze rapportage een duidelijke lijn in het zand getrokken. De boodschap aan de markt is helder: de tijd van onkritische en ondoorzichtige inzet van emotieherkenning is voorbij. De AI-verordening formaliseert dit wantrouwen, en de AP laat zien dat zij scherp zal toezien op de naleving.

Voor organisaties betekent dit dat emotieherkenning niet langer kan worden beschouwd als een neutrale technologie. Het is een hoog-risico toepassing die fundamentele vragen oproept over discriminatie, privacy en menselijke waardigheid. De tijd van experimenteren zonder consequenties is definitief voorbij.


Bronnen

  • Autoriteit Persoonsgegevens (2025).
    Emoties herkennen met AI: dubieus en risicovol
  • Autoriteit Persoonsgegevens (2025).
    Rapportage AI & Algoritmes Nederland (RAN) - juli 2025

Dit artikel is een initiatief van Embed AI. Wij helpen organisaties bij het navigeren door de complexiteit van de EU AI Act en het ontwikkelen van verantwoorde AI-strategieën. Heeft u vragen over emotieherkenning en compliance? Neem contact met ons op.