Responsible AI Platform

AGI en de EU AI Act: waar hebben we het eigenlijk over?

··7 min leestijd
Engelse versie niet beschikbaar

Artificial General Intelligence is geen magisch eindstation, maar een spectrum. De EU AI Act reguleert het niet als label, maar wel de bouwstenen die een AGI-achtig systeem in de praktijk vormen.

Kernpunt: De EU AI Act noemt "AGI" niet als aparte categorie. Maar toekomstige AGI-achtige systemen vallen wel onder de regels voor general-purpose AI-modellen (GPAI) en de risico-gebaseerde eisen voor concrete toepassingen.

AGI: waar hebben we het eigenlijk over?

Artificial General Intelligence (AGI) is het label dat vaak wordt geplakt op een AI-systeem dat niet alleen goed is in één taak, maar breed kan redeneren, leren en generaliseren over veel verschillende domeinen. Het is nadrukkelijk nog geen eenduidig afgebakend begrip. Zelfs grote spelers en onderzoekers hanteren uiteenlopende definities, wat meteen verklaart waarom "AGI reguleren" lastiger is dan het klinkt.

AGI als spectrum

Het is nuttig om AGI niet als één magisch eindstation te zien, maar als een spectrum: systemen worden breder inzetbaar, autonomer, beter in multi-step taken, en daardoor ook moeilijker voorspelbaar in nieuwe contexten. Precies die combinatie — brede inzetbaarheid plus onvoorspelbaarheid in de randen van het gebruik — is waar governance en wetgeving relevant worden.

Wordt AGI geregeld in de EU AI Act?

De EU AI Act noemt "AGI" niet als aparte categorie. Maar dat betekent niet dat een toekomstig AGI-achtig systeem buiten beeld valt. De AI Act reguleert in de kern:

  1. AI-systemen op basis van risico
  2. General-purpose AI-modellen (GPAI), met extra eisen voor de zwaarste modellen die "systemic risk" kunnen veroorzaken

De praktische vertaling is: als een organisatie een zeer capabel, breed inzetbaar model aanbiedt of integreert, dan zal de discussie meestal lopen via GPAI-regels en via de vraag of een concrete toepassing hoog risico is. Dus niet "is dit AGI", maar "wat kan dit model", "hoe wordt het ingezet", en "welke schade kan schaalbaar optreden". (EC Digital Strategy)

Tijdlijn: De AI Act is in werking getreden op 1 augustus 2024; verboden praktijken en AI literacy-verplichtingen gelden vanaf 2 februari 2025; governance en GPAI-verplichtingen zijn gaan gelden vanaf 2 augustus 2025. In juli 2025 is de General-Purpose AI Code of Practice gepubliceerd. (EC Digital Strategy)

Waar zou AGI dan "landen" in de AI Act?

1) AGI als general-purpose AI-model of -systeem

Een AGI-achtig model is in de praktijk bijna per definitie general-purpose: inzetbaar voor veel taken en inpasbaar in veel systemen. In de Nederlandse overheidsleidraad wordt dat helder uitgelegd: een AI-model is een component, een AI-systeem vereist extra elementen (zoals een interface), en general-purpose modellen en systemen krijgen eigen eisen. (Government.nl AI Act Guide)

Voor providers van general-purpose AI-modellen zijn er vier kernplichten:

  • Technische documentatie
  • Informatie voor downstream integrators
  • Een copyrightbeleid voor training
  • Een samenvatting van trainingsdata

2) AGI als "systemic risk" GPAI

Als een model zó groot en capabel is dat het risico's op grote schaal kan veroorzaken, dan komen extra verplichtingen in beeld:

VerplichtingToelichting
ModelevaluatiesStructurele evaluatie van capabilities en risico's
RisicomitigatieMaatregelen om systeemrisico's te beperken
IncidentregistratieMelding aan AI Office bij ernstige incidenten
CybersecurityPassende beveiligingsmaatregelen

De Commissie licht in haar Q&A toe dat "systemic risks" kunnen gaan over grootschalige schade, zoals het verlagen van drempels voor CBRN-misbruik of controleproblemen bij autonome modellen. (EC GPAI Q&A)

3) AGI ingezet in high-risk context

Zelfs als het model general-purpose is, kan de toepassing alsnog high-risk zijn, afhankelijk van het domein en doel. Denk aan werving en selectie, kredietwaardigheidsbeoordeling, toegang tot onderwijs, of kritieke infrastructuur.

Let op: De Nederlandse leidraad waarschuwt expliciet dat je als deployer provider kunt worden wanneer je een general-purpose systeem inzet voor een high-risk doel, en dat compliance dan moeilijk kan zijn. (Government.nl AI Act Guide)

Verantwoord implementeren: zeven stappen

Als je AGI verantwoord wilt implementeren, heb je een aanpak nodig die tegelijk juridisch, technisch en organisatorisch is.

De zeven stappen

1) Definieer de grenzen van het systeem Leg vast welke taken wel mogen, welke niet, en welke autonomie je toestaat.

2) Maak een rol- en ketenkaart Wie is provider, deployer, integrator? Dit bepaalt welke verplichtingen je draagt.

3) Classificeer per use-case, niet per modelnaam Stop met discussies als "is dit AGI". Beoordeel per toepassing: valt dit onder verboden praktijken, high-risk, transparantieplichten, of GPAI?

4) Voer structurele modelevaluaties uit Red teaming, misbruikscenario's, jailbreak-tests, evaluatie op betrouwbaarheid, bias en privacy-lekkage. Doe dit cyclisch.

5) Bouw veiligheidslagen Toegangsbeheer, sandboxing, logging, rate limits, monitoring, circuit breakers, escalatie naar menselijk toezicht.

6) Organiseer governance als managementsysteem Gebruik ISO/IEC 42001 voor AI-managementsystemen en NIST AI RMF als risicoraamwerk. (ISO 42001, NIST AI RMF)

7) Regel transparantie en menselijk contact Informeer gebruikers dat ze met AI interacteren en bied een menselijk loket bij impact op rechten.

Een concreet voorbeeld: een "AGI-assistent" in een organisatie

Stel: je bouwt een interne assistent die beleid kan uitleggen, concepten kan schrijven, beslisnota's kan voorbereiden en data kan analyseren. In eerste instantie lijkt dat laag risico. Maar zodra dezelfde assistent wordt gekoppeld aan HR-workflows (selectie, beoordeling), of aan finance-workflows (kredietbesluiten, fraudedetectie), kan de toepassing richting high-risk schuiven.

Daarom is het verstandig om vanaf dag één "use-case gates" in te bouwen: de assistent mag breed zijn, maar toegang tot high-risk processen vereist:

  • Een aparte risico-assessment
  • Aanvullende tests
  • Strengere monitoring
  • Expliciete besluitverantwoordelijkheid bij mensen

Praktische les: De EU AI Act reguleert AGI niet als label, maar wel de bouwstenen die een AGI-achtig systeem vormen. Als je vandaag al werkt met zeer capabele modellen, organiseer dan je governance zo dat je per use-case kunt opschalen in strengheid.


Bronnen

Bronnen

European Commission: AI Act - Regulatory Framework (2024)
European Commission: The General-Purpose AI Code of Practice (2025)
Government.nl: AI Act Guide (september 2025)
European Commission: General-Purpose AI Models - Q&A (2025)
OECD: OECD AI Principles (2024)


🎯 Meer over Responsible AI: Bekijk de Verantwoorde AI Implementatie Gids voor praktische frameworks en best practices.