Responsible AI Platform

AI-geletterdheid in de praktijk: Lessen van het AI Toezichtcongres

··8 min leestijd
Delen:
Engelse versie niet beschikbaar

Bron: Dit artikel is gebaseerd op deelsessie 6 "Verder bouwen aan AI-geletterdheid" van het AI Toezichtcongres 2025, gepresenteerd door de Directie Coördinatie Algoritmes van de Autoriteit Persoonsgegevens.

Waarom theorie alleen niet genoeg is

Sinds 2 februari 2025 is AI-geletterdheid een wettelijke verplichting onder artikel 4 van de AI-verordening. Maar wat betekent dat in de dagelijkse praktijk? Tijdens het AI Toezichtcongres deelde de Autoriteit Persoonsgegevens (AP) twee scherpe casussen die laten zien waarom AI-geletterdheid geen abstract begrip is, maar concrete risico's voorkomt.


Casus 1: De advocaat die ChatGPT vertrouwde

De situatie

Advocaat Sonja gebruikt ChatGPT al maanden voor haar werk. Het helpt haar met contractclausules, samenvattingen en juridisch onderzoek. Ze weet dat ze kritisch moet zijn, maar het klopt eigenlijk altijd. Haar kantoor verwacht dat zij door AI 30% efficiënter werkt.

Wanneer ze op het laatste moment onderbouwing nodig heeft voor een pleidooi, vraagt ze ChatGPT om jurisprudentie.

De volgende dag in de rechtszaal blijkt de jurisprudentie niet te bestaan.

Wat ging er mis?

  1. Geen begrip van hallucinaties – Sonja wist niet dat LLMs overtuigend klinkende maar fictieve informatie kunnen genereren
  2. Overmoed door successen – Eerdere goede ervaringen creëerden vals vertrouwen
  3. Tijdsdruk – Geen ruimte voor verificatie
  4. Geen escalatieprotocol – Geen collega-check voor AI-gegenereerde content

Wat had AI-geletterdheid kunnen betekenen?

  • Kennis van modellimieten – Weten dat LLMs geen betrouwbare bronnen zijn voor feitelijke claims
  • Verificatieprotocol – Altijd primaire bronnen checken voor juridische onderbouwing
  • Cultuur van kritisch gebruik – Normaliseren dat AI-output nooit blind wordt overgenomen

Casus 2: De verzekeraar die de details overliet aan IT

De situatie

De directie van een verzekeraar besluit een AI-chatbot in te zetten voor klantvragen over polisvoorwaarden. Ze zien de business case: lagere kosten, 24/7 beschikbaarheid, schaalbaarheid. De technische details laten ze aan de IT-afdeling.

Wanneer de chatbot een klant verkeerd informeert over de dekking van een verzekering — met financiële schade tot gevolg — blijkt het bestuur niet op de hoogte te zijn van de mogelijke scenario's.

Wat ging er mis?

  1. Bestuurlijke onwetendheid – Directie begreep de risico's van de technologie niet
  2. Geen risico-eigenaarschap – IT kreeg de verantwoordelijkheid, maar niet de bevoegdheid om nee te zeggen
  3. Ontbrekende monitoring – Niemand controleerde of de chatbot correcte informatie gaf
  4. Geen escalatiepad – Klachten bereikten het bestuur niet

Wat had AI-geletterdheid kunnen betekenen?

  • Bestuurlijke betrokkenheid – Directie die begrijpt wat er kan misgaan bij AI-beslissingen
  • Due diligence bij inkoop – Kritische vragen stellen aan leveranciers over accuracy en aansprakelijkheid
  • Monitoring en feedback loops – Structureel controleren of AI doet wat het moet doen

De kernboodschap van de AP

De AP benadrukte tijdens het congres:

"AI-geletterdheid is een kernvoorwaarde voor verantwoorde AI en algoritmes. Het stelt organisaties in staat om de kansen van innovatieve technologie optimaal te benutten én de impact van een systeem goed in te schatten."

Niet alleen voor techneuten: AI-geletterdheid gaat om het kunnen maken van geïnformeerde beslissingen. Dat geldt voor iedereen: van bestuurder tot eindgebruiker.


Hoe andere organisaties het aanpakken

Tijdens het congres werden twee concrete implementatievoorbeelden gedeeld:

Voorbeeld 1: Machinebouwbedrijf (±240 werknemers)

AspectAanpak
VerantwoordelijkheidWerkgroep beleid met verplichte bijeenkomsten
TrainingKennissessie AI voor 20% van het bedrijf (leidinggevenden + afgevaardigden)
PraktijkWorkshop voor 2 kansrijke AI-toepassingen + MS Copilot pilot
BeleidBedrijfsbeleid op intranet met korte e-learning
InventarisatieManagers leverden input voor 50+ mogelijke AI-toepassingen

Voorbeeld 2: Overheidsinstantie

AspectAanpak
VerantwoordelijkheidBenoemde AI-officer als vraagbaak voor de hele organisatie
TrainingAI-training voor brede groep + online workshop generatieve AI (do's en don'ts)
BeleidRichtlijnen in ontwikkeling voor generatieve AI
KadersDatalab met AI-toepassingen en kaders, begeleidt medewerkers in pilots

Rol-specifieke aanpak: Wie moet wat weten?

De AP presenteerde tijdens het congres een differentiatiemodel voor verschillende actoren binnen organisaties:

1

Generiek (alle medewerkers)

Doel: Bewustzijn vergroten en basiskennis AI bevorderen

2

Management

Doel: Inzicht in werking, risico's en impact om weloverwogen keuzes te maken

3

Algemene gebruikers

Doel: Kritisch toepassen en beoordelen van AI-output

4

Data-analisten

Doel: Diepgaand begrip van werken met data en AI-modellen

5

Engineers

Doel: Ontwerpen, ontwikkelen en optimaliseren van AI-oplossingen

6

Legal & Compliance

Doel: Bewust zijn van AI-werking om effectief en verantwoord te kunnen adviseren


Update: Digital Omnibus kan verplichting verzwakken

Let op: De Europese Commissie heeft een voorstel gedaan (Digital Omnibus) dat de AI-geletterdheidsverplichting mogelijk verzwakt voor niet-hoogrisico AI. Het Europees Parlement en de Raad moeten dit nog goedkeuren.

Huidige status: Voor hoogrisico AI blijven de verplichtingen onverminderd van kracht.

Dit betekent niet dat je moet wachten. De casussen hierboven laten zien dat AI-geletterdheid ook zonder wettelijke verplichting essentieel is voor risicobeheersing.


Conclusies van het congres

De AP sloot de sessie af met vijf observaties uit de praktijk:

  1. Veel organisaties hebben AI-geletterdheid op de radar en nemen initiatieven
  2. Ad-hoc maatregelen zijn niet voldoende – structurele borging is essentieel
  3. Enthousiasmeren van werknemers blijft een uitdaging
  4. Continue inspanning nodig door snelle ontwikkeling van AI-toepassingen
  5. De AP blijft actief op dit thema en zal organisaties volgen

Direct toepasbaar: 3 acties voor deze week

1

Deel de casussen

Bespreek de advocaat- en verzekeraar-casus in je volgende teammeeting. Vraag: "Kan dit bij ons gebeuren?"

2

Identificeer je AI-officer

Wijs iemand aan die verantwoordelijk is voor AI-geletterdheid – ook al is het parttime.

3

Start met 1 pilot

Kies één afdeling of tool en begin daar met een gestructureerde aanpak.


Verder lezen


Bronnen

Autoriteit Persoonsgegevens: Deelsessie 6: Verder bouwen aan AI-geletterdheid (december 2025)
Autoriteit Persoonsgegevens: Verder bouwen aan AI-geletterdheid (handreiking) (2025)

🎯 Training nodig? Plan een gesprek om te bespreken hoe wij jouw team kunnen helpen met praktische AI-geletterdheid.