Bron: Dit artikel is gebaseerd op deelsessie 6 "Verder bouwen aan AI-geletterdheid" van het AI Toezichtcongres 2025, gepresenteerd door de Directie Coördinatie Algoritmes van de Autoriteit Persoonsgegevens.
Waarom theorie alleen niet genoeg is
Sinds 2 februari 2025 is AI-geletterdheid een wettelijke verplichting onder artikel 4 van de AI-verordening. Maar wat betekent dat in de dagelijkse praktijk? Tijdens het AI Toezichtcongres deelde de Autoriteit Persoonsgegevens (AP) twee scherpe casussen die laten zien waarom AI-geletterdheid geen abstract begrip is, maar concrete risico's voorkomt.
Casus 1: De advocaat die ChatGPT vertrouwde
De situatie
Advocaat Sonja gebruikt ChatGPT al maanden voor haar werk. Het helpt haar met contractclausules, samenvattingen en juridisch onderzoek. Ze weet dat ze kritisch moet zijn, maar het klopt eigenlijk altijd. Haar kantoor verwacht dat zij door AI 30% efficiënter werkt.
Wanneer ze op het laatste moment onderbouwing nodig heeft voor een pleidooi, vraagt ze ChatGPT om jurisprudentie.
De volgende dag in de rechtszaal blijkt de jurisprudentie niet te bestaan.
Wat ging er mis?
- Geen begrip van hallucinaties – Sonja wist niet dat LLMs overtuigend klinkende maar fictieve informatie kunnen genereren
- Overmoed door successen – Eerdere goede ervaringen creëerden vals vertrouwen
- Tijdsdruk – Geen ruimte voor verificatie
- Geen escalatieprotocol – Geen collega-check voor AI-gegenereerde content
Wat had AI-geletterdheid kunnen betekenen?
- Kennis van modellimieten – Weten dat LLMs geen betrouwbare bronnen zijn voor feitelijke claims
- Verificatieprotocol – Altijd primaire bronnen checken voor juridische onderbouwing
- Cultuur van kritisch gebruik – Normaliseren dat AI-output nooit blind wordt overgenomen
Casus 2: De verzekeraar die de details overliet aan IT
De situatie
De directie van een verzekeraar besluit een AI-chatbot in te zetten voor klantvragen over polisvoorwaarden. Ze zien de business case: lagere kosten, 24/7 beschikbaarheid, schaalbaarheid. De technische details laten ze aan de IT-afdeling.
Wanneer de chatbot een klant verkeerd informeert over de dekking van een verzekering — met financiële schade tot gevolg — blijkt het bestuur niet op de hoogte te zijn van de mogelijke scenario's.
Wat ging er mis?
- Bestuurlijke onwetendheid – Directie begreep de risico's van de technologie niet
- Geen risico-eigenaarschap – IT kreeg de verantwoordelijkheid, maar niet de bevoegdheid om nee te zeggen
- Ontbrekende monitoring – Niemand controleerde of de chatbot correcte informatie gaf
- Geen escalatiepad – Klachten bereikten het bestuur niet
Wat had AI-geletterdheid kunnen betekenen?
- Bestuurlijke betrokkenheid – Directie die begrijpt wat er kan misgaan bij AI-beslissingen
- Due diligence bij inkoop – Kritische vragen stellen aan leveranciers over accuracy en aansprakelijkheid
- Monitoring en feedback loops – Structureel controleren of AI doet wat het moet doen
De kernboodschap van de AP
De AP benadrukte tijdens het congres:
"AI-geletterdheid is een kernvoorwaarde voor verantwoorde AI en algoritmes. Het stelt organisaties in staat om de kansen van innovatieve technologie optimaal te benutten én de impact van een systeem goed in te schatten."
Niet alleen voor techneuten: AI-geletterdheid gaat om het kunnen maken van geïnformeerde beslissingen. Dat geldt voor iedereen: van bestuurder tot eindgebruiker.
Hoe andere organisaties het aanpakken
Tijdens het congres werden twee concrete implementatievoorbeelden gedeeld:
Voorbeeld 1: Machinebouwbedrijf (±240 werknemers)
| Aspect | Aanpak |
|---|---|
| Verantwoordelijkheid | Werkgroep beleid met verplichte bijeenkomsten |
| Training | Kennissessie AI voor 20% van het bedrijf (leidinggevenden + afgevaardigden) |
| Praktijk | Workshop voor 2 kansrijke AI-toepassingen + MS Copilot pilot |
| Beleid | Bedrijfsbeleid op intranet met korte e-learning |
| Inventarisatie | Managers leverden input voor 50+ mogelijke AI-toepassingen |
Voorbeeld 2: Overheidsinstantie
| Aspect | Aanpak |
|---|---|
| Verantwoordelijkheid | Benoemde AI-officer als vraagbaak voor de hele organisatie |
| Training | AI-training voor brede groep + online workshop generatieve AI (do's en don'ts) |
| Beleid | Richtlijnen in ontwikkeling voor generatieve AI |
| Kaders | Datalab met AI-toepassingen en kaders, begeleidt medewerkers in pilots |
Rol-specifieke aanpak: Wie moet wat weten?
De AP presenteerde tijdens het congres een differentiatiemodel voor verschillende actoren binnen organisaties:
Generiek (alle medewerkers)
Doel: Bewustzijn vergroten en basiskennis AI bevorderen
Management
Doel: Inzicht in werking, risico's en impact om weloverwogen keuzes te maken
Algemene gebruikers
Doel: Kritisch toepassen en beoordelen van AI-output
Data-analisten
Doel: Diepgaand begrip van werken met data en AI-modellen
Engineers
Doel: Ontwerpen, ontwikkelen en optimaliseren van AI-oplossingen
Legal & Compliance
Doel: Bewust zijn van AI-werking om effectief en verantwoord te kunnen adviseren
Update: Digital Omnibus kan verplichting verzwakken
Let op: De Europese Commissie heeft een voorstel gedaan (Digital Omnibus) dat de AI-geletterdheidsverplichting mogelijk verzwakt voor niet-hoogrisico AI. Het Europees Parlement en de Raad moeten dit nog goedkeuren.
Huidige status: Voor hoogrisico AI blijven de verplichtingen onverminderd van kracht.
Dit betekent niet dat je moet wachten. De casussen hierboven laten zien dat AI-geletterdheid ook zonder wettelijke verplichting essentieel is voor risicobeheersing.
Conclusies van het congres
De AP sloot de sessie af met vijf observaties uit de praktijk:
- Veel organisaties hebben AI-geletterdheid op de radar en nemen initiatieven
- Ad-hoc maatregelen zijn niet voldoende – structurele borging is essentieel
- Enthousiasmeren van werknemers blijft een uitdaging
- Continue inspanning nodig door snelle ontwikkeling van AI-toepassingen
- De AP blijft actief op dit thema en zal organisaties volgen
Direct toepasbaar: 3 acties voor deze week
Deel de casussen
Bespreek de advocaat- en verzekeraar-casus in je volgende teammeeting. Vraag: "Kan dit bij ons gebeuren?"
Identificeer je AI-officer
Wijs iemand aan die verantwoordelijk is voor AI-geletterdheid – ook al is het parttime.
Start met 1 pilot
Kies één afdeling of tool en begin daar met een gestructureerde aanpak.
Verder lezen
- AI-geletterdheid is nu toetsbaar beleid – De AP-handreiking uitgelegd
- AI Toezichtcongres 2025: Alle inzichten – Complete terugblik op het congres
- AI-geletterdheid bouwen in je organisatiecultuur – Het vier-stappenmodel
Bronnen
🎯 Training nodig? Plan een gesprek om te bespreken hoe wij jouw team kunnen helpen met praktische AI-geletterdheid.