Praktische analyse van de concept-gedragscode voor transparantie rond AI-gegenereerde content
Concept ter consultatie: De Europese Commissie heeft recent een eerste draft gepubliceerd van een Code of Practice over transparantie bij AI-content. Het document is nadrukkelijk een concept, bedoeld om feedback te verzamelen en richting te geven aan de praktische implementatie van transparantieverplichtingen onder de AI Act.
Waarom deze code er is: Artikel 50 AI Act concreet maken
Artikel 50 van de AI Act verplicht in specifieke situaties om duidelijk te maken dat content door AI is gemaakt of is gemanipuleerd. In hoofdlijnen gaat het om twee werelden die elkaar raken:
Providers van AI-systemen moeten ervoor zorgen dat AI-content, waar technisch mogelijk, gemarkeerd kan worden en detecteerbaar is. Denk aan het meegeven van herkomstinformatie of het inbouwen van signalen waarmee later kan worden vastgesteld dat een beeld, audio of video door een AI-systeem is gegenereerd of aangepast.
Deployers van AI-content moeten in bepaalde gevallen zichtbaar labelen richting het publiek. Denk aan deepfakes, gemanipuleerde beelden, of AI-gegenereerde tekst die wordt gedeeld in een context van publiek belang.
Ketenverantwoordelijkheid
Transparantie is ketenwerk: als de provider niets levert, kan de deployer minder goed labelen. En als de deployer geen proces heeft, helpt de techniek van de provider ook minder. De code adresseert daarom beide kanten tegelijk.
Dit is een draft, maar het is wel richtinggevend
Omdat het een concept is, kun je het niet lezen als definitieve set eisen. Je kunt het wel lezen als een duidelijk signaal over de route die Europa kiest:
- Techniek én organisatie: Transparantie wordt uitgewerkt als een combinatie van marking/detectie en labeling/governance/verantwoording
- Interoperabiliteit: Niet elk bedrijf zijn eigen label en definities, maar zoveel mogelijk gedeelde afspraken
- Realistische beperkingen: Niet elke modaliteit kan even "hard" gemarkeerd worden, en markeringen zijn vaak te verwijderen - dat wordt vertaald naar een gelaagde aanpak
Wie het document nu al serieus neemt, wint tijd: niet omdat je alles al moet implementeren, maar omdat je nu kunt bepalen waar je organisatie straks op afgerekend wordt in audits, procurement en toezicht.
Kern 1: Providers moeten naar "gelaagd markeren" en bewijsbare detectie
Voor providers is de centrale gedachte dat één techniek zelden genoeg is. De conceptcode stuurt daarom op een multi-layered benadering:
Metadata & Provenance
Herkomstgegevens die met de content meereizen, idealiter met een digitale handtekening zodat de integriteit kan worden gecontroleerd.
Watermarking
Een (bij voorkeur onzichtbare) markering in de content zelf, zodat het niet alleen "in de verpakking" zit, maar ook "in het product".
Fingerprinting & Logging
Technieken waarmee later kan worden vastgesteld of iets door jouw model is gegenereerd, ook als metadata ontbreekt of is weggehaald.
Detecteerbaarheid als dienst
Opvallend is dat de code niet stopt bij "markeer het". Er wordt ook gestuurd op detecteerbaarheid als dienst. Providers worden richting een gratis of publiek toegankelijke manier geduwd om content te laten verifiëren, bijvoorbeeld via een webinterface of API met confidence scores.
Praktisch betekent dit dat providers niet alleen een technische oplossing moeten bouwen, maar ook moeten nadenken over:
- Hoe schaal je verificatie zonder dat het een kosten- of securityprobleem wordt?
- Hoe ga je om met false positives en false negatives?
- Hoe geef je transparantie zonder dat je meteen modelgeheimen of misbruikinformatie weggeeft?
Spanning tussen transparantie en veiligheid: Transparantie helpt vertrouwen, maar kan ook een handleiding worden voor omzeiling. De conceptcode probeert dat op te lossen door meerdere lagen te combineren en ook "forensic" detectie te stimuleren die niet uitsluitend leunt op watermarks.
Kern 2: Deployers krijgen een labelplicht die verder gaat dan een tekstregel
Voor deployers zet de code sterk in op een herkenbare en consistente labeling-aanpak. Dit gaat niet alleen om "zet ergens 'gemaakt met AI'". De conceptcode werkt toe naar een gedeeld vocabulaire, een herkenbaar icoon, en afspraken over waar en wanneer een label zichtbaar moet zijn.
Taxonomie voor AI-content
| Categorie | Definitie | Voorbeeld |
|---|---|---|
| Fully AI-generated | Volledig gegenereerd door AI | AI-beeld van persoon die niet bestaat |
| AI-assisted | Door AI ondersteund, met grotere menselijke rol | Foto met AI-aanpassingen aan achtergrond |
Dit onderscheid lijkt simpel, maar het is in de praktijk juist waar discussies ontstaan. Een marketingafdeling die een foto "net even" laat aanpassen door generatieve AI, voelt dat vaak als klein. Vanuit transparantie en vertrouwen kan het publiek dat anders ervaren.
Modaliteit-specifieke uitwerking
De code werkt ook toe naar een (tijdelijk) label-icoon en later een breder EU-icoon dat ook interactief kan zijn. Audio vraagt andere maatregelen dan beeld. Denk aan een podcastfragment of voice-over: een label in een beschrijving is vaak onvoldoende als mensen alleen luisteren. Daarom wordt gesproken over disclosure die ook "in" de ervaring terugkomt, bijvoorbeeld bij langere audio herhaald.
Kern 3: Er komen uitzonderingen, maar die vragen om discipline
Transparantie in de AI Act kent uitzonderingen en nuances. De conceptcode werkt die verder uit. Twee springen eruit:
Artistieke en satirische content
Content voor artistieke, satirische of fictieve doeleinden krijgt proportionele behandeling: je wilt geen label dat het werk kapotmaakt, terwijl je wel eerlijk wil zijn over de herkomst.
Tekst onder menselijke controle
AI-gegenereerde tekst over onderwerpen van publiek belang kent ruimte om niet te labelen als er sprake is van menselijke controle en iemand eindverantwoordelijkheid draagt. Dit vereist minimale documentatie: je moet kunnen uitleggen dat het niet "ongezien" is gepubliceerd.
Governance-vereiste: Als je een uitzondering wilt gebruiken, heb je een proces nodig dat dit aantoonbaar maakt. Anders verandert "menselijke review" in een loze zin die je niet kunt bewijzen.
Wat betekent dit voor jouw organisatie als je geen AI-provider bent?
Veel organisaties zijn geen provider van AI-systemen, maar wel een intensieve gebruiker. Denk aan gemeenten die beelden publiceren, onderwijsinstellingen met communicatieafdelingen, HR-teams die wervingsmateriaal maken, of juridische afdelingen die samenvattingen genereren.
Voor die organisaties is de kern: transparantie wordt een workflow-eis.
Je zult in je processen moeten weten:
- Waar AI in de keten wordt gebruikt (tekst, beeld, audio, video, vertaling, bewerking)
- Welke output extern gaat en welke intern blijft
- In welke gevallen je moet labelen, en hoe je omgaat met uitzonderingen
- Hoe je consistent blijft over kanalen heen: website, social media, nieuwsbrieven, presentaties
Praktisch voorbeeld
Een organisatie laat een video maken voor een campagne. De beelden zijn deels echt, deels AI-gegenereerd, en de voice-over is synthetisch. Zonder afspraken ontstaat versnippering: het ene kanaal labelt wel, het andere niet. Met een consistente taxonomie, een standaard label, en een eenvoudige content-checklist wordt het uitvoerbaar.
Wat betekent dit voor providers en productteams?
Voor providers en productteams heeft de conceptcode een tweede effect: het verandert transparantie in een producteigenschap waar klanten straks naar gaan vragen.
Als procurement straks vraagt: "Kunnen we AI-output detecteren, aantonen en labelen?", dan heb je meer nodig dan een beleidsdocument. Je hebt technische bouwstenen nodig die in het ecosysteem passen:
- Provenance metadata
- Watermarks
- Verificatie-interfaces
- Logging
Productkeuzes
Voor productteams betekent dit ook dat je keuzes moet maken over:
- Default-instellingen: Markering standaard aan, of opt-in?
- Gebruikerservaring: Hoe geef je transparantie zonder de workflow te verlammen?
- Integraties: Hoe sluit je aan op CMS-systemen, DAM-systemen, social publishing tools en archieven?
Wat je nu al kunt doen, zonder te wachten op de definitieve versie
Je hoeft vandaag niet alles "AI Act-proof" te maken. Je kunt wel al acties nemen die later sowieso waarde houden.
Inventarisatie AI-contentflows
Niet alleen "we gebruiken ChatGPT", maar concreet: waar wordt AI gebruikt in creatie, bewerking en publicatie? Welke teams, welke tools, welke kanalen?
Definieer interne taxonomie
Neem minimaal het onderscheid over dat de conceptcode benoemt: fully AI-generated versus AI-assisted. Leg vast hoe je dat intern bepaalt, en koppel het aan voorbeelden.
Labelproces in publicatieketen
Bouw labeling in als onderdeel van je contentreview. Denk aan een veld in je CMS, een checkbox in je social publishing tool, of een verplichte vraag in je reviewtemplate.
Documenteer menselijke review
Als je in bepaalde gevallen wilt leunen op "editorial responsibility", maak dan simpel bewijsbaar wie reviewde en wanneer. Reproduceerbaar, niet noodzakelijk zwaar.
Vraag leveranciers naar marking
Als je met generatieve beeldtools, videoplatforms of AI-voice werkt: welke marking of provenance leveren ze mee? Is er een verificatie-API? Kun je het integreren?
Strategisch voordeel: De conceptcode is nog niet af. De richting is wel duidelijk: transparantie gaat niet alleen over woorden, maar over techniek en organisatie die elkaar versterken. Organisaties die dat nu al vertalen naar hun workflows, zullen straks minder hoeven improviseren wanneer de regels daadwerkelijk gaan gelden.
📚 Verdiep je kennis: Bekijk de Complete EU AI Act Gids voor een volledig overzicht van alle aspecten van de AI-wetgeving.