Responsible AI Platform
🗳️Democratische processen

Het verhaal van CivicBot

Wanneer een gemeentelijke chatbot onbedoeld stemadvies geeft — en de toezichthouder alarm slaat

Fictief scenario — gebaseerd op realistische situaties

Scroll
01

De Aanleiding

Hoe het begon

📧

De gemeente had een succesvolle AI-chatbot voor algemene burgervragen. In de aanloop naar verkiezingen kwamen er steeds meer vragen: "Welke partij past bij mij?" "Wat is het beste om te stemmen?" De bot gaf antwoorden — maar die bleken systematisch scheef.

De Autoriteit Persoonsgegevens testte chatbots als stemhulp en ontdekte een alarmerend patroon: meer dan 55% van alle adviezen ging naar slechts twee partijen, ongeacht het ingevoerde kiezersprofiel. Bij sommige bots zelfs 80%. De gemeente's chatbot vertoonde hetzelfde patroon.

"55% naar twee partijen. Ongeacht wat je vraagt." De gemeente zat met een chatbot die burgers een verkeerde kant op stuurde.
02

De Vragen

Wat moesten ze uitzoeken?

1Vraag

Waarom geven chatbots scheef stemadvies?

Het team liet de chatbot testen met dezelfde profielen die de AP gebruikte. Het resultaat was schokkend: linkse profielen werden naar GroenLinks-PvdA gestuurd, rechtse naar de PVV. Het midden was praktisch onzichtbaar.

💡 Het inzicht

Chatbots zijn taalmodellen die antwoorden genereren uit patronen in trainingsdata. Die data bevat meer content over "extreme" standpunten dan over genuanceerde middenposities. Resultaat: een gepolariseerd adviespatroon dat geen recht doet aan de variatie in Nederlandse partijen.

🌍 Waarom dit ertoe doet

De AP noemt dit het "stofzuigereffect": profielen aan de linkse kant worden richting GroenLinks-PvdA gezogen, profielen aan de rechtse kant richting de PVV. Dit is geen bewuste bias — het is een artefact van hoe taalmodellen zijn getraind. Maar het effect is hetzelfde: kiezersbeïnvloeding.

2Vraag

Wat is het "stofzuigereffect" dat de AP beschrijft?

Het team analyseerde waarom de verdeling zo scheef was. In een evenwichtige test zou elke partij grofweg een vergelijkbaar aandeel krijgen. Dat gebeurde niet — twee partijen domineerden.

💡 Het inzicht

Het stofzuigereffect beschrijft hoe chatbots nuance verliezen. In plaats van te differentiëren tussen D66, VVD, CDA en andere partijen, "zuigt" het model antwoorden naar de meest extreme polen. Dit is geen fout in de vraag — het is een systeemgebrek in hoe generatieve AI werkt.

🌍 Waarom dit ertoe doet

De AP testte met evenwichtige profielen: voor elke partij waren evenveel profielen ingevoerd. De uitkomst: de meeste partijen kwamen minder dan 5% van de tijd op één uit, terwijl twee partijen samen 55% scoorden. Bij sommige bots zelfs 80%. Dit is geen subtiele afwijking — het is een fundamentele storing.

3Vraag

Hoe borg je dat een chatbot geen politiek advies geeft?

Het team moest snel handelen. Het was verkiezingstijd en elke dag dat de bot stemadvies gaf, was een dag van potentiële kiezersbeïnvloeding. Wat konden ze doen?

💡 Het inzicht

Intent-herkenning is de sleutel. Bouw een filter dat vragen over "op wie moet ik stemmen," "welke partij past bij mij" of "wat is het beste om te kiezen" herkent. Routeer naar betrouwbare bronnen: uitleg over het stemproces, neutrale samenvattingen, onafhankelijke stemhulpen. Geen ranking, wel uitleg.

🌍 Waarom dit ertoe doet

De AP benadrukt het verschil met echte stemhulpen: Kieskompas en StemWijzer documenteren hun methodiek, laten partijposities zien, en vermijden normatieve conclusies. Chatbots doen het tegenovergestelde: black box, oncontroleerbaar, en toch adviserend. Dat is het fundamentele probleem.

4Vraag

Wat zijn de grenzen van een overheidschatbot?

De gemeente moest nadenken over rolzuiverheid. Een gemeentelijke Q&A heeft geen mandaat om stemadvies te geven. Maar hoe maak je dat duidelijk voor burgers en voor de bot zelf?

💡 Het inzicht

Expliciete productgrenzen zijn essentieel. Documenteer wat de chatbot wel en niet mag doen. Maak dit zichtbaar voor gebruikers via een disclaimer. Zorg dat het team weet waar de lijn ligt. En bouw een escalatiepad naar menselijk contact voor vragen die buiten scope vallen.

🌍 Waarom dit ertoe doet

Nieuwsmedia en publieke instellingen lopen extra risico: hun merknaam wekt de indruk van autoriteit en neutraliteit. Een gemeente die via AI stemadvies geeft — hoe onbedoeld ook — schaadt het vertrouwen in zowel de technologie als de overheid zelf.

03

De Reis

Stap voor stap naar compliance

Stap 1 van 6
⚠️

De waarschuwing

De Autoriteit Persoonsgegevens publiceerde onderzoek: chatbots geven vertekend stemadvies. 55% naar twee partijen.

Stap 2 van 6
🔍

De interne test

Het team testte de eigen chatbot met AP-profielen. Resultaat: hetzelfde patroon. De bot gaf scheef stemadvies.

Stap 3 van 6
🚧

Intent-filter bouwen

Een filter werd geïmplementeerd dat politiek-gevoelige vragen herkent: "op wie stemmen," "welke partij past bij mij."

Stap 4 van 6
➡️

Doorverwijzing instellen

In plaats van zelf te adviseren, verwees de bot naar Kiesraad-informatie, neutrale samenvattingen, en onafhankelijke stemhulpen.

Stap 5 van 6
📢

Disclaimer toevoegen

Een heldere boodschap werd toegevoegd: "Ik ben een informatiebot, geen stemhulp. Voor stemadvies verwijs ik je naar onafhankelijke bronnen."

Stap 6 van 6
📊

Bias-monitoring opstarten

Periodieke tests met evenwichtige profielen werden ingepland om te monitoren of de bot toch impliciete voorkeuren vertoonde.

04

De Obstakels

Wat ging er mis?

Obstakel 1

Uitdaging

Chatbot gaf systematisch scheef stemadvies (55%+ naar twee partijen)

Oplossing

Intent-filter dat politieke vragen herkent en routeert naar neutrale bronnen

Obstakel 2

Uitdaging

Burgers verwachtten autoriteit van gemeentelijke bron

Oplossing

Expliciete disclaimer en doorverwijzing naar onafhankelijke stemhulpen

Obstakel 3

Uitdaging

Geen monitoring of de bot impliciete voorkeuren vertoonde

Oplossing

Periodieke bias-tests met evenwichtige profielen volgens AP-methodiek

We dachten dat we burgers hielpen door snel antwoord te geven. We realiseerden ons te laat dat snelheid zonder grenzen tot kiezersbeïnvloeding kan leiden.
Marieke van den Berg, Hoofd Digitale Dienstverlening
05

De Lessen

Wat kunnen we hiervan leren?

Les 1 / 4
🗳️

Chatbots zijn geen stemhulpen

Generatieve modellen geven systematisch scheef advies. Ze missen de transparantie en methodiek van echte stemhulpen.

Les 2 / 4
🔍

Intent-herkenning is essentieel

Bouw filters die politiek-gevoelige vragen vroeg herkennen en routeren naar neutrale bronnen.

Les 3 / 4
🚧

Rolzuiverheid bewaken

Een informatiebot heeft geen mandaat om advies te geven. Maak die grens expliciet.

Les 4 / 4
📊

Monitor op bias

Test periodiek met evenwichtige profielen. Meet of de verdeling afwijkt van de input.

Biedt jouw organisatie een chatbot aan burgers of klanten?

Check of je intent-filters hebt voor gevoelige use-cases en monitor op bias.