De meeste gesprekken over Artikel 50 beginnen op de verkeerde plek. Teams vragen of ze een watermark, label of disclaimer nodig hebben. Dat is te smal. De echte eerste vraag is eenvoudiger: ben je de provider, de deployer, of allebei?
Dat onderscheid bepaalt wie output detecteerbaar moet maken, wie deepfakes moet melden, wie gebruikers moet vertellen dat ze met AI praten en wie eventueel een beroep kan doen op redactionele controle als uitzondering.
Daar zit precies de praktische waarde van Artikel 50. Het verdeelt transparantieverplichtingen tussen aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen. Mis je die verdeling, dan verandert compliance in een doorschuifspel. De leverancier zegt dat de klant moet labelen. De klant zegt dat de leverancier het technisch had moeten oplossen. Geen van beiden kan veel bewijzen als de toezichthouder vragen stelt.
Wat Artikel 50 precies zegt
De wettekst van Artikel 50 bevat zeven leden. Samen vormen die vier praktische blokken.
1. AI-systemen die direct met mensen interacteren
Artikel 50 lid 1 is een aanbiedersverplichting. Aanbieders moeten AI-systemen die direct met natuurlijke personen interacteren zo ontwerpen en ontwikkelen dat betrokkenen weten dat ze met een AI-systeem te maken hebben, tenzij dat in de omstandigheden al duidelijk is.
Dit is de chatbotregel, maar niet alleen voor chatbots. Denk ook aan voice assistants, supportbots, intake-agents, klantenserviceflows en vergelijkbare interfaces.
De kernvraag is niet of er ergens op de achtergrond AI wordt gebruikt. De vraag is of een redelijk goed geĂŻnformeerde, oplettende en zorgvuldige persoon begrijpt dat er met AI wordt gecommuniceerd. Zo niet, dan is transparantie verplicht.
2. Synthetische audio, beeld, video en tekst
Artikel 50 lid 2 is ook in hoofdzaak een aanbiedersverplichting. Aanbieders van AI-systemen, inclusief general-purpose AI-systemen, die synthetische audio, beeld, video of tekst genereren, moeten zorgen dat de output machineleesbaar gemarkeerd en detecteerbaar is als kunstmatig gegenereerd of gemanipuleerd.
Dat betekent niet automatisch één specifieke techniek. De norm is breder: de technische oplossing moet effectief, interoperabel, robuust en betrouwbaar zijn voor zover technisch haalbaar, rekening houdend met het type content, de implementatiekosten en de stand van de techniek.
Daarom moet je Artikel 50 steeds vaker samen lezen met de opkomende Code of Practice over AI-contenttransparantie en de bredere discussie rond de GPAI Code of Practice.
Lid 2 bevat ook twee belangrijke uitzonderingen. De verplichting geldt niet als het systeem slechts een ondersteunende standaardbewerkingsfunctie vervult of de input van de deployer niet wezenlijk verandert, inhoudelijk of semantisch. Ook geldt de verplichting niet waar het systeem rechtmatig wordt ingezet voor opsporing, preventie, onderzoek of vervolging van strafbare feiten.
3. Emotieherkenning en biometrische categorisatie
Artikel 50 lid 3 verschuift de plicht naar de deployer. Gebruiksverantwoordelijken van emotieherkenningssystemen of biometrische categorisatiesystemen moeten betrokken natuurlijke personen informeren over de werking van het systeem.
Dat is belangrijk, want Artikel 50 gaat dus niet alleen over generatieve AI-content. Het gaat ook over transparantie richting mensen die worden blootgesteld aan bepaalde AI-systemen in de echte wereld.
Als een werkgever, school, publieke instantie of exploitant van een locatie emotieherkenning of biometrische categorisatie gebruikt, kan die deployer zich niet verschuilen achter aanbiedersdocumentatie. Er is een eigen, operationele transparantieplicht.
4. Deepfakes en tekst van publiek belang
Artikel 50 lid 4 is het lid waar de meeste organisaties op letten, en ook het lid dat het vaakst verkeerd wordt gelezen.
Ten eerste moeten deployers van AI-systemen die beeld, audio of video genereren of manipuleren dat een deepfake vormt, melden dat die content kunstmatig is gegenereerd of gemanipuleerd.
Ten tweede moeten deployers van AI-systemen die tekst genereren of manipuleren die wordt gepubliceerd met het doel het publiek te informeren over zaken van publiek belang, melden dat die tekst kunstmatig is gegenereerd of gemanipuleerd.
Die tweede zin is smaller dan veel mensen denken. Er staat niet dat elke AI-geassisteerde tekst een label nodig heeft. Het gaat om tekst die wordt gepubliceerd om het publiek te informeren over onderwerpen van publiek belang.
Daarna komt de uitzondering op basis van redactionele controle. De meldplicht voor tekst geldt niet wanneer de AI-content een proces van menselijke review of redactionele controle heeft doorlopen en een natuurlijke of rechtspersoon redactionele verantwoordelijkheid draagt voor de publicatie.
Artikel 50 verbiedt dus geen AI-geassisteerde journalistiek, beleidscommunicatie of publieke informatievoorziening. Maar het beloont organisaties die echte redactionele controle kunnen aantonen, in plaats van achteraf te doen alsof een snelle check hetzelfde is.
Provider versus deployer, de praktische scheidslijn
Dit is de simpelste nuttige manier om naar Artikel 50 te kijken.
Verantwoordelijkheden van de provider
Als je de provider bent, moet je vooral kijken naar wat het systeem technisch mogelijk maakt.
- Voor systemen die direct interacteren met mensen moet duidelijk zijn dat er met AI wordt gecommuniceerd, als dat niet al evident is.
- Voor systemen die synthetische content genereren moet output machineleesbaar en detecteerbaar zijn als AI-gegenereerd of gemanipuleerd.
- De technische oplossing moet, voor zover haalbaar, effectief, interoperabel, robuust en betrouwbaar zijn.
- Beperkingen en uitzonderingen moeten duidelijk zijn vastgelegd voor deployers.
Als die documentatie dun is, creëer je ook meteen problemen onder Artikel 13, vooral waar deployers bewijs nodig hebben voor inkoop, governance of Artikel 26.
Verantwoordelijkheden van de deployer
Als je de deployer bent, moet je vooral kijken naar wat de organisatie feitelijk publiceert, toont of aan mensen blootstelt.
- Gebruik je emotieherkenning of biometrische categorisatie, dan moet je betrokkenen informeren.
- Publiceer je deepfake beeld, audio of video, dan moet je melden dat de content kunstmatig is gegenereerd of gemanipuleerd.
- Publiceer je AI-gegenereerde of AI-gemanipuleerde tekst om het publiek te informeren over zaken van publiek belang, dan moet je dat melden, tenzij de uitzondering voor redactionele controle van toepassing is.
- De informatie moet duidelijk, onderscheidend en toegankelijk zijn.
Precies daarom is de gids over verplichtingen voor gebruikers van generatieve AI relevant. Een deployer lost Artikel 50 niet op met alleen een goede inkoopclausule. Er moet ook publicatiegovernance zijn.
Leer de EU AI Act door te doen
Geen slides. Geen saaie e-learning. Probeer een interactieve module.
Probeer het zelf
3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.
Drie typische Artikel 50-scenario's
Scenario 1, een leverancier biedt een image generator aan zakelijke klanten aan
De leverancier is de provider. Artikel 50 lid 2 betekent dat de provider ervoor moet zorgen dat gegenereerde output machineleesbaar detecteerbaar is. Als klanten die output later gebruiken in campagnes of publieke communicatie, kunnen die klanten alsnog deployer-verplichtingen hebben, afhankelijk van de context.
Scenario 2, een gemeente publiceert een AI-gegenereerde uitlegvideo
De gemeente is de deployer. Als de video een deepfake is of in relevante mate AI-gegenereerde of AI-gemanipuleerde beeld-, audio- of videocontent bevat, is een melding onder Artikel 50 lid 4 nodig. Werkt de gemeente met een externe leverancier, dan blijft die leverancier daarnaast eigen aanbiedersverplichtingen houden onder lid 2.
Scenario 3, een redactie gebruikt AI om een artikel van publiek belang te draften
Als de tekst wordt gepubliceerd met het doel het publiek te informeren over zaken van publiek belang, is Artikel 50 lid 4 relevant. Maar de meldplicht voor tekst kan wegvallen als er echte menselijke review of redactionele controle heeft plaatsgevonden en een natuurlijke of rechtspersoon redactionele verantwoordelijkheid draagt.
Die uitzondering is krachtig, maar alleen als de redactie dat proces ook echt kan aantonen. “Iemand heeft het nog even bekeken” is een zwakke verdediging.
Lid 5 tot en met 7 zijn belangrijker dan ze lijken
Artikel 50 lid 5 zegt dat de informatie uit lid 1 tot en met 4 duidelijk en onderscheidend moet worden verstrekt, uiterlijk op het moment van eerste interactie of blootstelling. Daarbij moet ook aan toepasselijke toegankelijkheidseisen worden voldaan.
Daarmee sneuvelt een veel te luie aanpak: de melding verstoppen in algemene voorwaarden, een footer of metadata die niemand ziet. Artikel 50 wil dat de relevante persoon de informatie zichtbaar en op tijd krijgt.
Artikel 50 lid 6 zegt dat deze plichten de verplichtingen uit Hoofdstuk III en andere transparantieplichten uit Unierecht of nationaal recht niet vervangen. Dus als je systeem ook hoog-risico is, of als consumentenrecht, mediarecht, platformregels of sectorspecifieke regels extra transparantie eisen, dan is Artikel 50 niet je plafond.
Artikel 50 lid 7 wijst vooruit naar codes of practice en mogelijke uitvoeringshandelingen van de Commissie. Met andere woorden: dit onderwerp wordt waarschijnlijk concreter, niet losser. Werk je nu al met GPAI-leveranciers of contentworkflows, houd die guidance dan nu in de gaten in plaats van pas in zomer 2026.
Wat organisaties nu moeten doen
De beste voorbereiding op Artikel 50 is saai op een goede manier. Je maakt transparantie onderdeel van het normale proces in plaats van een last-minute paniekmoment.
- Breng eerst rollen in kaart. Bepaal wanneer je organisatie provider, deployer of beide is.
- Classificeer use cases. Maak onderscheid tussen interactiesystemen, synthetische contentgeneratie, biometrische categorisatie, emotieherkenning, deepfake-publicatie en tekst van publiek belang.
- Schrijf inkoopeisen op. Als je modellen of tools inkoopt, eis machineleesbare detecteerbaarheid en bruikbare technische documentatie.
- Bouw een publicatieregel. Leg vast wie content labelt, wie uitzonderingen toetst en wie redactionele controle aftekent.
- Bewaar bewijs. Als je op de uitzondering voor redactionele controle wilt leunen, moet je de menselijke reviewketen kunnen aantonen.
- Maak meldingen leesbaar. Artikel 50 vraagt om duidelijkheid, onderscheid en toegankelijkheid, niet om juridische mist.
Twijfelt je organisatie nog over haar rol in de AI-keten, dan zijn de risicobeoordelingstool en de post over wanneer je deployer bent van een AI-agent goede startpunten.
Waar teams meestal de fout in gaan
De eerste fout is provider- en deployer-verplichtingen samenvouwen tot één vaag “AI-labeling”-taakje.
De tweede fout is denken dat Artikel 50 alleen over deepfakes gaat. Het ziet ook op directe interactiesystemen, synthetische output in bredere zin en deployers van emotieherkenning of biometrische categorisatie.
De derde fout is alles labelen maar de workflow niet goed regelen. Labels lossen geen rolverdeling op.
De vierde fout is denken dat de uitzondering voor redactionele controle automatisch geldt zodra een mens het concept even aanraakt. Dat is niet zo. Er moet echte review en echte redactionele verantwoordelijkheid zijn.
De vijfde fout is toegankelijkheid negeren. Artikel 50 noemt expliciet dat de informatie aan toepasselijke toegankelijkheidseisen moet voldoen.
Veelgestelde vragen
De belangrijkste vragen en antwoorden bij dit onderwerp.