Praktische lessen voor organisaties die chatfunctionaliteit aanbieden aan burgers, klanten of leerlingen
Belangrijkste bevinding: de Autoriteit Persoonsgegevens (AP) testte vier AI-chatbots als stemhulp en ontdekte dat meer dan 55% van alle adviezen naar slechts twee partijen ging, ongeacht het ingevoerde kiezersprofiel. Bij ƩƩn chatbot zelfs in meer dan 80% van de gevallen.
Waarom deze waarschuwing verder reikt dan verkiezingen
De Autoriteit Persoonsgegevens (AP) waarschuwt kiezers om geen stemadvies te vragen aan AI-chatbots. Niet uit voorzichtigheid, maar op basis van een eigen test die liet zien dat de adviezen scheef en onbetrouwbaar uitpakken.
In een vergelijking van vier bekende chatbots met de Nederlandse stemhulpen Kieskompas en StemWijzer bleken chatbots opvallend vaak te adviseren voor slechts twee partijen, ongeacht het ingevoerde kiezersprofiel. Bij elkaar opgeteld kregen GroenLinks-PvdA en de PVV in ruim de helft van de gevallen de eerste plaats.
Dat gebeurt ook wanneer de input juist past bij andere partijen. De traditionele stemhulpen vertonen dit patroon niet en werken transparanter en controleerbaar.
Wat de AP precies onderzocht
De AP bouwde fictieve kiezersprofielen op basis van stellingen uit Kieskompas en StemWijzer, en vroeg vervolgens vier grote chatbots om een top drie met partijvoorkeuren. In een evenwichtig experiment zou elke partij grofweg een vergelijkbaar aandeel eerste plaatsen moeten krijgen, omdat voor elke partij evenveel profielen zijn ingevoerd.
Het stofzuigereffect
De AP beschrijft een zogenoemd stofzuigereffect: profielen aan de linkse, progressieve kant worden door chatbots richting GroenLinks-PvdA gezogen, profielen aan de rechtse, conservatieve kant richting de PVV. Het politieke midden blijft ondervertegenwoordigd in de adviezen.
De cijfers liegen niet
In werkelijkheid kwamen de meeste partijen minder dan vijf procent van de tijd op ƩƩn uit, terwijl twee partijen samen goed waren voor ongeveer vijfenvijftig procent. Bij sommige partijen viel de match zelfs vrijwel weg, ook als het profiel inhoudelijk op die partij was afgestemd.
De uitkomst is een gecomprimeerd en gepolariseerd landschap dat geen recht doet aan de variatie in Nederlandse partijen. Dit is in de AP-rapportage visueel terug te zien.
Waarom chatbots geen stemhulpen zijn
Chatbots zijn taalmodellen die antwoorden genereren uit patronen in trainingsdata en publiek webmateriaal, inclusief verouderde of foutieve informatie. De werking is voor de gebruiker nauwelijks te controleren en voor buitenstaanders niet te auditen.
Stemhulpen zijn precies omgekeerd ingericht: zij documenteren methodiek en datakeuzes, laten posities van partijen zien en vermijden normatieve conclusies.
De kern van het probleem: chatbots lijken slimme hulpjes, maar als stemhulp slaan ze stelselmatig de plank mis. Dat raakt direct aan de integriteit van vrije en eerlijke verkiezingen.
Het is dus logisch dat de AP chatbots afraadt als wegwijzer bij verkiezingen en benadrukt dat hun adviezen op dit moment niet als neutraal informatiedeel beschouwd kunnen worden. Het advies aan kiezers is daarom eenvoudig: gebruik geen chatbots voor stemadvies.
Wat betekent dit voor organisaties die chatfunctionaliteit aanbieden
Deze waarschuwing gaat ook over productontwerp. Veel organisaties leveren chatfuncties aan burgers, klanten of leerlingen. De les is niet om chatbots te verbieden, maar om grenzen en waarborgen in te bouwen wanneer de interactie kan verschuiven naar politiek advies of beĆÆnvloeding.
Context bepaalt het risico
Rond verkiezingen vragen gebruikers vanzelf om hulp bij partijkeuze, programma's en strategisch stemmen. Een generieke chatbot kan die vraag oppakken en toch ongewenste invloed uitoefenen.
De AP-bevindingen laten zien dat zelfs ogenschijnlijk neutrale prompts uitdraaien op adviezen die niet passen bij de ingevoerde voorkeuren. Een systeem dat dit type vragen überhaupt accepteert, neemt dus een risico op sturing zonder dat de werking uitlegbaar is.
Rolzuiverheid bewaken
Een klantenservicebot, een onderwijsassistent of een gemeentelijke Q&A heeft geen mandaat om stemadvies te geven. Wie die lijn niet scherp bewaakt, krijgt al snel te maken met vertrouwenserosie en reputatieschade.
Nieuwsmedia en publieke instellingen lopen bovendien extra risico als hun merknaam de indruk wekt van autoriteit en neutraliteit. Nationale media en andere outlets die over de AP-bevindingen berichtten, illustreren hoe snel dit thema publiek wordt.
Hoe ontwerp je een chatbot die niet in stemadvies verandert
De AP-bevindingen bieden vijf concrete aanknopingspunten voor organisaties die chatfunctionaliteit verantwoord willen inzetten.
1. Herken politiek-gevoelige intenties vroeg
Bouw een intent-filter dat vragen over "op wie moet ik stemmen", "welke partij past bij mij" of "wat is het beste om te kiezen" herkent. Routeer naar betrouwbare, niet-sturende informatiekanalen.
Routeer naar betrouwbare alternatieven
In plaats van zelf te adviseren, verwijs naar:
- Uitleg over het stemproces
 - Neutrale samenvattingen van partijprogramma's
 - Onafhankelijke stemhulpen die hun methodiek publiceren
 
Documenteer dat de bot dit doet en leg vast waarom deze keuze is gemaakt.
2. Schakel een adviesmodus uit
Laat de bot geen top drie of ranglijst produceren bij politieke vragen. Geef in plaats daarvan procesinformatie, leg begrippen uit en toon bronnen.
De AP vergelijkt expliciet met Kieskompas en StemWijzer om te laten zien wat transparantie en controleerbaarheid inhouden. Gebruik die vergelijking als ontwerpnorm: geen ranking, wel uitleg en link naar methodisch onderbouwde hulpmiddelen.
3. Maak je grenzen zichtbaar
Toon een heldere boodschap dat de chatbot geen stemadvies mag of kan geven. Verwijs naar een redactioneel of governance-document waarin je uitlegt hoe de organisatie met politieke inhoud omgaat.
Dat vergroot voorspelbaarheid en voorkomt dat teamleden ad hoc afwijken van beleid. De AP noemt het gebrek aan uitlegbaarheid als reden om chatbots op dit moment niet geschikt te achten als stemhulp.
4. Voer een expliciete bias-check uit
Test periodiek of de bot bij uiteenlopende politieke profielen steeds naar dezelfde partijen tendeert. Gebruik hiervoor een vaste set scenario's op basis van publieke stemhulpstellingen.
Praktische tip: meet of de verdeling van antwoorden afwijkt van de inputprofielen, en leg die metingen vast. De AP-methode laat zien dat zo'n systematische test haalbaar is en betekenisvolle patronen blootlegt.
5. Zorg voor een escalatiepad naar menselijk contact
Laat gebruikers met politieke vragen eenvoudig doorstappen naar mensen of bronnen die uitleg kunnen geven zonder advies te sturen. Dat is niet alleen servicegericht, het beperkt ook het risico dat een generatief systeem onbedoeld richting geeft.
Voorbeeldsituaties om direct te verbeteren
Gemeentelijke informatiepagina
Een gemeente biedt een algemene AI-assistent voor vragen over paspoorten, evenementen en afvalinzameling. In de weken voor de verkiezingen komen er vragen binnen over partijstandpunten en strategisch stemmen.
Oplossing: De assistent herkent politiek adviesvragen en geeft een korte uitleg over het stemproces, verwijst naar de officiƫle informatiepagina van de Kiesraad en naar onafhankelijke stemhulpen zonder eigen adviesfunctie.
Een disclaimer legt uit waarom geen partijadvies wordt gegeven. Metingen in het dashboard laten zien dat de bot geen ranglijsten produceert bij politieke prompts. Dit past bij de lijn uit het AP-onderzoek.
Onderwijsplatform
Een edtech-provider levert een leerassistent voor middelbare scholen. De bot krijgt vragen als "welke partij moet ik kiezen voor klimaat" of "wat past bij mijn profiel".
Oplossing: De provider zet een politiek-adviesfilter aan, toont neutrale uitleg over begrippen, linkt naar maatschappijkeuzes en curriculum-materiaal en blokkeert elk top-drie-advies.
De provider logt die keuzes en test wekelijks op vertekening naar specifieke partijen zodat afwijkingen snel worden opgespoord. De aanpak sluit aan op de AP-constatering dat chatbots door hun ontwerp niet als stemhulp functioneren.
Mediabedrijf met nieuwsbot
Een omroep heeft een chatfunctie die artikelen samenvat. Tijdens campagnetijd krijgt de bot veel vragen om aanbevelingen.
Oplossing: Het team kiest ervoor om alleen context en bronverwijzingen te geven, geen partijadvies. Transparantie over bronnen wordt prominent in het antwoord gezet.
Interne metingen volgen of de bot toch impliciete voorkeuren suggereert. Het beleid en de meetresultaten worden in een redactionele standaard vastgelegd. De journalistieke verslaggeving van dit onderwerp laat zien dat publiek en politiek hier scherp op letten.
Relatie met de AI-verordening
De AP wijst erop dat AI-systemen die stemadvies geven aan strenge eisen moeten voldoen. In de context van de AI-verordening betekent dat een regime waarin accuratesse, consistentie, risicobeheersing en documentatie aantoonbaar zijn ingericht.
| Aspect | Chatbot-realiteit | AI Act-eis | 
|---|---|---|
| Transparantie | Black box voor gebruikers | Gedocumenteerde methodiek vereist | 
| Accuratesse | Systematische bias naar 2 partijen | Consistente, verifieerbare output | 
| Controleerbaarheid | Niet te auditen | Externe verificatie mogelijk | 
| Risicobeheersing | Geen documentatie | Aantoonbaar risicomanagement | 
De boodschap is praktisch: als je geen volwaardige, transparante stemhulp met een verifieerbare methodiek kunt en wilt aanbieden, zet die functie dan uit en stuur naar betrouwbare, controleerbare informatie. Dat is beter voor de gebruiker en beter verdedigbaar richting toezichthouders.
Waarom dit rapport verder reikt dan verkiezingen
De kernvraag is hoe we generatieve systemen positioneren in domeinen waar mensen beslissingen nemen met impact. Stemmen is een duidelijk voorbeeld, maar denk ook aan:
- Zorgkeuzes: welke behandeling past bij mijn symptomen?
 - Financiƫle producten: welke hypotheek of verzekering is het beste?
 - Juridische routes: moet ik juridische stappen ondernemen?
 
Waar een chatbot bedoeld is als informatieve gids, kan een schuivend antwoordpatroon toch normatief uitpakken. Het AP-onderzoek toont dat zo'n patroon niet pas ontstaat bij extreme prompts, maar ook bij keurige, op inhoud gebaseerde profielen.
Belangrijke les: het is verstandig om rond gevoelige beslissingen niet op impliciet advies te vertrouwen, ongeacht hoe neutraal de interface lijkt.
Wat jij kunt doen in de komende veertien dagen
Begin met een korte risico-scan van je chatbot. Deze aanpak is in twee weken te realiseren zonder grote ingrepen.
Analyseer
Kijk waar politieke content binnenkomt, welke antwoorden de bot genereert en of er sprake is van impliciete rangschikking.
Implementeer filter
Schakel een politiek-adviesfilter in en publiceer een korte uitleg voor gebruikers over waarom geen stemadvies wordt gegeven.
Test systematisch
Plan een eenvoudige bias-test met profielen op basis van publieke stellingen. Meet of de verdeling afwijkt van inputprofielen.
Documenteer
Leg bevindingen en verbeteringen vast in je governance-documentatie. Maak het reproduceerbaar.
De kracht van het AP-onderzoek is dat het laat zien waar de gevaren zitten en hoe je ze concreet kunt ondervangen. Deze set acties maakt een zichtbaar verschil in betrouwbaarheid en uitlegbaarheid.
Vijf concrete aanbevelingen voor organisaties
1. Neem de AP-bevindingen serieus
De systematische bias die de AP aantoont, is geen randfenomeen. Het is een fundamenteel ontwerpprobleem van generatieve chatbots. Behandel politiek advies als een verboden functie, tenzij je kunt aantonen dat je aan alle eisen voor transparantie en controleerbaarheid voldoet.
2. Bouw intent-herkenning in
Investeer in een robuust intent-filter dat politiek-gevoelige vragen vroeg herkent en routeert. Test dit filter met diverse formuleringen en evalueer regelmatig of nieuwe patronen ontstaan.
3. Stel heldere productgrenzen
Documenteer expliciet wat de chatbot wel en niet mag doen. Maak dit zichtbaar voor gebruikers en zorg dat het team weet waar de lijn ligt. Voorkom ad-hoc beslissingen in individuele gevallen.
4. Meet en monitoor systematisch
Implementeer logging en metrics die laten zien of de bot impliciete voorkeuren vertoont. Gebruik de AP-methode als blauwdruk: test met evenwichtige profielen en meet de verdeling van uitkomsten.
5. Creƫer escalatiepaden
Zorg dat gebruikers met complexe of gevoelige vragen doorverwezen kunnen worden naar menselijke expertise of betrouwbare, onafhankelijke bronnen. Dit is niet alleen verantwoord, het beschermt ook je reputatie.
Conclusie: een duidelijke lijn in het zand
De AP heeft met deze rapportage een duidelijke lijn in het zand getrokken. De boodschap aan de markt is helder: de tijd van onkritische en ondoorzichtige inzet van chatbots in politiek-gevoelige contexten is voorbij.
Voor organisaties betekent dit dat chatbots niet langer als neutrale informatietools beschouwd kunnen worden in domeinen waar beslissingen met maatschappelijke impact worden genomen. Het is een systeem met inherente beperkingen die transparantie, controleerbaarheid en risicobeheersing vereisen.
De vraag is niet óf je maatregelen neemt, maar wanneer. De tijd van experimenteren zonder consequenties is definitief voorbij.
Bronnen en verdere lezing
- Autoriteit Persoonsgegevens: AP waarschuwt: chatbots geven vertekend stemadvies (21 oktober 2025) met de onderliggende RAN-special. Bevat de percentages, methodiek en duiding.
 
Dit artikel is een initiatief van geletterdheid.ai. Wij helpen organisaties bij het navigeren door de complexiteit van de EU AI Act en het opbouwen van verantwoorde AI-praktijken. Heeft u vragen over AI-governance en chatbot-implementatie? Neem contact met ons op.