Responsible AI Platform
💼Werkplek

Het verhaal van EmploTrack

Wanneer werkplekmonitoring een absoluut verbod raakt — en hoe je koers wijzigt

Fictief scenario — gebaseerd op realistische situaties

Scroll
01

De Aanleiding

Hoe het begon

📧

EmploTrack had een innovatief product ontwikkeld: SentimentPulse analyseerde gezichtsuitdrukkingen en stemtonen om stressniveaus te meten. HR-afdelingen waren enthousiast — eindelijk objectieve data over werknemerswelzijn in plaats van subjectieve enquêtes.

Tot de AI Act in werking trad. Artikel 5(1)(f) verbiedt expliciet het afleiden van emoties uit biometrische data op de werkplek. Geen uitzonderingen. EmploTrack's kernproduct was plotseling illegaal.

"We dachten dat we werknemers hielpen door burn-out te voorkomen. De toezichthouder zag het anders: we schonden hun fundamentele rechten."
02

De Vragen

Wat moesten ze uitzoeken?

1Vraag

Waarom is emotieherkenning op de werkplek verboden?

Het team dook in de achtergrond van het verbod. De wetgever erkende iets fundamenteels: op de werkplek bestaat altijd een machtsongelijkheid. Een werknemer kan niet vrij "nee" zeggen tegen monitoring door de werkgever.

💡 Het inzicht

Toestemming is illusoir in een arbeidsrelatie. Als je baas vraagt of je meedoet aan emotieherkenning, voel je druk om ja te zeggen — ongeacht je werkelijke comfort. Daarom koos de wetgever voor een absoluut verbod in plaats van toestemming als rechtsgrond.

🌍 Waarom dit ertoe doet

De AP bevestigde dit in haar rapportage: de ongelijke machtsverhouding maakt vrije en geïnformeerde toestemming van werknemers illusoir. Dit principe geldt ook voor onderwijsinstellingen, waar dezelfde machtsongelijkheid speelt tussen leerling en onderwijsinstelling.

2Vraag

Wat maakt biometrische data zo gevoelig?

EmploTrack had gedacht aan gezichtsuitdrukkingen als "gewone" data. De juridische analyse liet zien dat dit een fout begrip was: biometrische data voor identificatie of categorisering zijn bijzondere persoonsgegevens onder de AVG.

💡 Het inzicht

Biometrische data zijn uniek identificerend en onveranderlijk — je kunt je gezicht niet resetten zoals een wachtwoord. De afgeleide emoties zijn bovendien "zeer intieme en privacygevoelige data." Dit activeert het strengste regime van gegevensbescherming.

🌍 Waarom dit ertoe doet

De AI Act classificeert alle systemen die biometrische data gebruiken voor categorisering automatisch als hoog-risico. En op de werkplek gaat het nog verder: dan is het simpelweg verboden, ongeacht hoe goed je compliance-processen zijn ingericht.

3Vraag

Kan de technologie überhaupt betrouwbaar emoties detecteren?

Naast de juridische bezwaren dook het team in de wetenschappelijke basis. De bevindingen waren ontnuchterend: de Autoriteit Persoonsgegevens noemde de technologie "dubieus en risicovol," gebouwd op "omstreden aannames."

💡 Het inzicht

De technologie meet geen emoties — het meet fysieke signalen en koppelt die aan veronderstelde emoties. Een hoge hartslag kan stress zijn, maar ook opwinding of koffie. Een harde stem kan woede zijn, maar ook enthousiasme. De proxy-koppeling is fundamenteel onbetrouwbaar.

🌍 Waarom dit ertoe doet

Onderzoek toont dat emotieherkenningssystemen negatievere emoties toekennen aan mensen met een donkere huidskleur — een direct discriminatierisico. Het idee dat emoties universeel zijn en door iedereen hetzelfde worden geuit, is wetenschappelijk omstreden. Culturele, individuele en contextuele verschillen worden genegeerd.

4Vraag

Is er een legale weg naar werknemerswelzijn-monitoring?

Het team moest hun product herontwerpen. Was er een manier om werknemerswelzijn te monitoren zonder het verbod te schenden?

💡 Het inzicht

Ja, maar fundamenteel anders. Anonieme, geaggregeerde enquêtes waar werknemers vrijwillig aan deelnemen. Geen biometrie, geen individuele tracking. Focus op team-niveau inzichten in plaats van per-persoon stress-scores. De waarde verschuift van surveillance naar luisteren.

🌍 Waarom dit ertoe doet

De AP wijst op de "vuurwerk-analogie": de AI Act zorgt dat producten veilig zijn, maar de maatschappelijke vraag of we het willen is een andere afweging. EmploTrack moest zich afvragen: ook als dit technisch kon, willen we werknemers zo monitoren?

03

De Reis

Stap voor stap naar compliance

Stap 1 van 6
📈

Product-markt succes

SentimentPulse werd door meerdere enterprises geadopteerd. HR-afdelingen waren enthousiast over "objectieve wellbeing data."

Stap 2 van 6

De AI Act-check

Bij voorbereiding op AI Act-compliance bleek dat emotieherkenning op de werkplek expliciet verboden is onder Artikel 5(1)(f). Geen uitzonderingen.

Stap 3 van 6
🔬

Wetenschappelijke reflectie

Het team onderzocht de wetenschappelijke basis. De bevindingen: "dubieus en risicovol," gebouwd op "omstreden aannames" met discriminatierisico's.

Stap 4 van 6
🔄

Product-hertransformatie

Van biometrische surveillance naar anonieme, vrijwillige wellbeing-enquêtes. Focus op team-niveau inzichten, niet individuele scores.

Stap 5 van 6
📢

Klant-communicatie

Bestaande klanten werden geïnformeerd over de wetswijziging en de migratie naar het nieuwe product. Sommigen haakten af; anderen waardeerden de ethische koerswijziging.

Stap 6 van 6
🎯

Nieuwe positionering

EmploTrack positioneerde zich als "privacy-first wellbeing platform" — een differentiator in een markt vol surveillancetools.

04

De Obstakels

Wat ging er mis?

Obstakel 1

Uitdaging

Kernproduct bleek verboden onder AI Act Artikel 5(1)(f)

Oplossing

Volledige product-hertransformatie naar anonieme, vrijwillige enquêtes

Obstakel 2

Uitdaging

Wetenschappelijke basis van emotieherkenning was "dubieus en risicovol"

Oplossing

Accepteren dat technologie fundamenteel onbetrouwbaar is en alternatieven zoeken

Obstakel 3

Uitdaging

Bestaande klanten verliezen die surveillance-functies wilden

Oplossing

Herpositionering als privacy-first platform, nieuwe klanten aantrekken die ethiek waarderen

We dachten dat we werknemers hielpen door hen te meten. We leerden dat luisteren — met respect voor privacy — effectiever is dan surveilleren.
Lisa de Jong, CEO, EmploTrack
05

De Lessen

Wat kunnen we hiervan leren?

Les 1 / 4

Sommige toepassingen zijn gewoon verboden

Niet alles is een compliance-kwestie. Sommige AI-toepassingen zijn illegaal, punt. Check Artikel 5 eerst.

Les 2 / 4
⚖️

Toestemming werkt niet overal

In machtsrelaties (werkgever-werknemer, school-leerling) is vrije toestemming illusoir.

Les 3 / 4
🔬

Vraag de wetenschappelijke vraag

Kan de technologie überhaupt doen wat we claimen? Bij emotieherkenning: waarschijnlijk niet.

Les 4 / 4
🏆

Compliance kan een differentiator zijn

Privacy-first positionering kan een concurrentievoordeel zijn in een markt vol surveillance.

Gebruikt jouw organisatie biometrische analyse?

Check of je toepassing onder een AI Act-verbod valt voordat je verder investeert.