General Purpose AI
ChatGPT, Claude, Gemini onder de EU AI Act
De GPAI-regels gelden sinds 2 augustus 2025. De Code of Practice is gepubliceerd op 10 juli 2025 en getekend door alle grote AI-bedrijven. Hier is wat je moet weten.
Wat is General Purpose AI?
De modellen die je overal tegenkomt
General Purpose AI (GPAI) zijn AI-modellen die voor veel verschillende taken kunnen worden gebruikt, zonder substantiële aanpassing. Denk aan grote taalmodellen (LLMs) zoals ChatGPT, Claude, Gemini, Llama en Mistral. Deze modellen kunnen tekst genereren, code schrijven, vragen beantwoorden, beelden creëren en veel meer. De EU AI Act stelt specifieke eisen aan providers van deze modellen én aan organisaties die ze gebruiken. Ook image generators zoals DALL-E, Midjourney en Stable Diffusion vallen onder GPAI als ze breed inzetbaar zijn.
ChatGPT / GPT-4o
OpenAI
Claude 3.5
Anthropic
Gemini 2.0
Llama 3.3
Meta (open-source)
Status: Regels Zijn Nu Van Kracht
Wat betekent dit voor jou in januari 2026?
Sinds 2 augustus 2025 gelden de GPAI-regels. De definitieve Code of Practice is gepubliceerd op 10 juli 2025 en ondertekend door Google, Microsoft, OpenAI, Anthropic, Amazon, Meta en andere grote spelers. Providers moeten nu technische documentatie bijhouden, copyright respecteren en trainingsdata-samenvattingen publiceren. Handhaving met boetes start formeel augustus 2026, maar toezichthouders kunnen nu al informeren en waarschuwen. Voor deployers (organisaties die GPAI gebruiken) geldt al de AI-geletterdheidsverplichting (Artikel 4) en de transparantieverplichting (Artikel 50).
10 juli 2025
Code of Practice gepubliceerd
2 aug 2025
GPAI regels van kracht
2 aug 2026
Formele handhaving start
2 aug 2027
Volledige handhaving
Gerelateerde artikelen
Twee Categorieën GPAI
Standaard vs. Systemisch Risico
De EU AI Act onderscheidt twee niveaus van GPAI. Standaard GPAI-modellen moeten technische documentatie bijhouden via een Model Documentation Form, informatie aan downstream providers verstrekken, EU-auteursrecht respecteren (inclusief robots.txt), en een samenvatting van trainingsdata publiceren. GPAI-modellen met systemisch risico (getraind met >10²⁵ FLOPs, denk aan GPT-4, Claude 3 Opus, Gemini Ultra) hebben aanvullende verplichtingen: externe audits, red teaming, systeemrisico-beoordelingen, incidentrapportage aan de Europese Commissie, en uitgebreide cybersecurity maatregelen.
Standaard GPAI
Documentatie, transparantie, copyright
Systemisch Risico
>10²⁵ FLOPs training compute
Model Documentation Form
Standaard documentatieformat
Extra verplichtingen
Audits, red teaming, incidentrapportage
Code of Practice
De gedragscode voor GPAI (gepubliceerd 10 juli 2025)
De Code of Practice biedt een "presumption of compliance" - als je de code volgt, wordt aangenomen dat je voldoet aan de wet. Dit is cruciaal voor rechtszekerheid. De code is ontwikkeld in een multi-stakeholder proces en bevat vier hoofdstukken: 1) Governance - interne structuur, verantwoordelijkheden, C-level ownership, 2) Transparantie - documentatie van architectuur, trainingsdata, mogelijkheden en beperkingen, 3) Copyright - respect voor auteursrechten, volgen van robots.txt, opt-out procedures voor rechthebbenden, 4) Veiligheid - specifiek voor systemisch risico modellen: red teaming, cybersecurity, incidentmanagement.
Governance
C-level verantwoordelijkheid
Transparantie
Model Documentation Form
Copyright
Robots.txt & opt-out
Veiligheid
Red teaming & incidentrapportage
Transparantie & AI Content Labeling
Artikel 50 en de draft Code voor AI-content
Naast de GPAI Code of Practice werkt de Commissie aan een afzonderlijke gedragscode voor transparantie rond AI-gegenereerde content (Artikel 50). Providers moeten zorgen dat AI-content markeerbaar en detecteerbaar is via watermarking, metadata en fingerprinting. Deployers moeten AI-gegenereerde content labelen, vooral bij deepfakes en content van publiek belang. Er komt onderscheid tussen "volledig AI-gegenereerd" en "AI-assisted" content. Detectie moet als service beschikbaar worden - gratis of tegen lage kosten.
Watermarking
Onzichtbare markering in content
Metadata
Provenance data meesturen
Labeling
Duidelijke labels voor eindgebruikers
Detection API
Verificatie als service
Wat Betekent Dit voor Jou als Gebruiker?
GPAI gebruiken in je organisatie (januari 2026)
Als je GPAI-tools gebruikt (zoals ChatGPT, Copilot, Claude) in je organisatie, gelden nu al concrete verplichtingen. AI Geletterdheid (Artikel 4): sinds februari 2025 moet je medewerkers trainen - documenteer dit! Transparantie (Artikel 50): informeer gebruikers/klanten dat ze met AI te maken hebben. Begrijp beperkingen: ken de hallucination-risico's en beperkingen van je tools. Beleid: stel intern AI-beleid op met duidelijke regels. Let op provider-risico: als je een GPAI integreert in je eigen product en dit op de markt brengt, kun je provider worden van het gecombineerde systeem met alle bijbehorende verplichtingen!
AI Geletterdheid
Nu verplicht - documenteer!
Transparantie
Informeer over AI-gebruik
Beleid
Intern AI-beleid opstellen
Provider-risico
Integratie = mogelijk provider!
Gerelateerde artikelen
Veelgestelde Vragen
Antwoorden op de meest voorkomende vragen over de EU AI Act
Klaar om te starten?
Ontdek hoe wij jouw organisatie kunnen helpen met EU AI Act compliance.