Responsible AI Platform

AI Act en klantcontact: waarom chatbots, voicebots en sentimentanalyse nu compliance-aandacht vragen

··6 min leestijd
Delen:
Engelse versie niet beschikbaar

Het experimenteerjaar is voorbij. 2026 is het jaar waarin de AI Act tanden krijgt, en voor organisaties die AI inzetten in klantcontact komt de realiteit hard binnen. Chatbots, voicebots, sentimentanalyse, emotieherkenning - technologieen die de afgelopen twee jaar massaal zijn uitgerold in contactcenters en klantenservice, vallen nu onder concrete wettelijke verplichtingen. Sommige zijn zelfs ronduit verboden.

Dit artikel biedt een praktische gids: welke klantcontact-AI valt waarbinnen de AI Act, en wat moet je als organisatie nu regelen?

Het speelveld: drie risicocategorieen

De AI Act werkt met een risicogebaseerde aanpak. Voor AI in klantcontact zijn drie categorieen relevant:

Verboden (artikel 5): AI-systemen die emoties detecteren op de werkplek of in het onderwijs. Dit raakt direct aan sentimentanalyse van medewerkers in contactcenters.

Hoog risico (artikel 6 + Bijlage III): AI-systemen die worden ingezet voor besluitvorming die wezenlijke impact heeft op personen. Denk aan AI die bepaalt of een klant in aanmerking komt voor een dienst, of geautomatiseerde kredietbeoordelingen.

Beperkt risico met transparantieverplichtingen (artikel 50): AI-systemen die direct met mensen interacteren. Elke chatbot en voicebot valt hieronder.

Direct relevant: Emotieherkenning op de werkplek is sinds februari 2025 verboden onder artikel 5 van de AI Act. Gebruikt jouw contactcenter software die de stemming of emoties van medewerkers analyseert tijdens klantgesprekken? Dan overtreed je mogelijk nu al de wet.

Emotieherkenning: de rode lijn

Artikel 5, lid 1, sub f van de AI Act verbiedt expliciet het gebruik van AI-systemen die emoties van personen afleiden op de werkplek en in onderwijsinstellingen. De enige uitzondering: medische of veiligheidsredenen.

Voor contactcenters is dit een directe treffer. Veel platforms voor workforce management en quality monitoring gebruiken sentimentanalyse of emotiedetectie. Ze analyseren de stem van medewerkers om stress, frustratie of ontevredenheid te detecteren. Onder de AI Act is dit verboden.

Let op het subtiele maar cruciale onderscheid: emotieherkenning van klanten tijdens een gesprek is niet per definitie verboden (tenzij het op de werkplek van de klant plaatsvindt), maar valt wel onder strenge transparantie-eisen. Emotieherkenning van medewerkers is dat wel.

In de praktijk gebruiken veel systemen dezelfde technologie voor beide kanten van het gesprek. Organisaties die dergelijke tools inzetten moeten dus heel precies vaststellen wat er exact wordt geanalyseerd, van wie, en met welk doel.

Chatbots en voicebots: transparantie is niet optioneel

Artikel 50 van de AI Act stelt helder: als een AI-systeem direct interacteert met een persoon, moet die persoon weten dat ze met AI te maken hebben. Dit geldt voor alle chatbots en voicebots, ongeacht het risiconiveau.

Dat klinkt simpel, maar de implicatie is vergaand. De trend in CX was jarenlang om AI-interacties zo menselijk mogelijk te maken. Voicebots die klinken als echte medewerkers. Chatbots die niet te onderscheiden zijn van menselijke agents. Die aanpak is nu een juridisch risico.

De wet is expliciet: misleiding is niet toegestaan. Een voicebot moet zich aankondigen als AI. Een chatbot moet duidelijk maken dat de gebruiker niet met een mens communiceert. De "Turing test-marketingstrategie", waarbij bedrijven opscheppen dat hun bot niet van een mens te onderscheiden is, is nu een compliance-risico.

Praktische stap: Audit al je klantgerichte AI-interacties. Elke chatbot, voicebot en virtuele assistent moet expliciet aangeven dat het een AI-systeem is. Zorg dat dit gebeurt aan het begin van elke interactie, niet verstopt in algemene voorwaarden.

Hoog-risico classificatie: wanneer wordt het serieus?

Bijlage III van de AI Act definieert de categorieen hoog-risico AI-systemen. Voor klantcontact zijn met name relevant:

  • Toegang tot essentiele diensten: AI die bepaalt of iemand in aanmerking komt voor publieke diensten, verzekeringen, of financiele producten
  • Kredietbeoordeling: Geautomatiseerde systemen die de kredietwaardigheid van personen beoordelen
  • Nooddienstcommunicatie: AI-systemen die noodoproepen routeren of prioriteren

Als jouw klantcontact-AI beslissingen neemt of aanbevelingen doet die direct invloed hebben op de toegang van een klant tot een dienst of product, kan het systeem als hoog risico worden geclassificeerd. Dat brengt verplichtingen met zich mee rond risicomanagement, datakwaliteit, menselijk toezicht, transparantie en technische documentatie.

De "governance als infrastructuur"-verschuiving

Handmatige compliance werkt niet meer bij de schaal waarop AI wordt ingezet in klantcontact. Duizenden AI-agents die dagelijks miljoenen micro-beslissingen nemen in een contactcenter - dat controleer je niet met een spreadsheet.

De verschuiving die nodig is: governance moet onderdeel worden van de technische infrastructuur. Niet iets dat er achteraf aan wordt geplakt, maar ingebouwd in het platform. Dat betekent:

  • Geautomatiseerde logging van alle AI-beslissingen en -interacties
  • Ingebouwde transparantiemeldingen die niet handmatig hoeven te worden geactiveerd
  • Continue monitoring van AI-prestaties en -gedrag, niet alleen periodieke audits
  • Duidelijke escalatiepaden van AI naar menselijke medewerkers

Vijf stappen voor organisaties

Wat moet je nu concreet doen?

1. Inventariseer alle AI in klantcontact. Niet alleen de officiele tools, maar ook schaduw-AI: medewerkers die klantgegevens in ChatGPT of andere LLM's invoeren voor snelle samenvattingen. Dat is een datalek wachtend om te gebeuren.

2. Classificeer elk systeem. Valt het onder verboden praktijken (emotieherkenning medewerkers)? Hoog risico (besluitvorming over dienstverlening)? Of transparantieverplichtingen (chatbots, voicebots)?

3. Stop verboden praktijken onmiddellijk. Emotieherkenning van medewerkers is al verboden sinds februari 2025. Hier is geen overgangsperiode meer.

4. Implementeer transparantie. Zorg dat elke AI-interactie met klanten duidelijk als zodanig wordt geidentificeerd. Dit is de makkelijkste stap met de meeste impact.

5. Bouw governance in je platform. Werk samen met je leveranciers om compliance-monitoring te automatiseren. Vraag om certificeringen en compliance-documentatie.

De augustusdeadline: Per augustus 2026 start de handhaving van de verplichtingen voor hoog-risico AI-systemen. Maar de verboden praktijken (artikel 5) en transparantieverplichtingen (artikel 50) gelden al. Wachten is geen optie.

De vendor-keuze wordt een compliance-keuze

Een ontwikkeling die snel aan belang wint: de keuze voor een AI-leverancier is steeds meer een compliance-keuze. Organisaties die AI-tools inkopen voor klantcontact moeten leveranciers beoordelen op hun vermogen om aan de AI Act te voldoen. Kan de leverancier aantonen hoe het systeem werkt? Is er technische documentatie? Zijn er mogelijkheden voor menselijk toezicht?

De dagen van de "black box" AI-oplossing van een startup zijn voorbij. Wie de herkomst van de data en de werking van het model niet kan aantonen, sluit het contract niet meer.

De kern

AI in klantcontact is geen grijs gebied meer. De regels zijn helder, de deadlines naderen, en de toezichthouders zijn aangewezen. Organisaties die nu bewegen - inventariseren, classificeren, aanpassen - bouwen een voorsprong op. Wie wacht tot de eerste boete valt, is te laat.