Stand van zaken maart 2026: De definitie van AI-systemen in artikel 3 bepaalt welke systemen onder de EU AI Act vallen. Met de hoog-risico verplichtingen die in augustus 2026 van kracht worden, is het voor elke organisatie urgent om vast te stellen welke systemen kwalificeren als AI-systeem in de zin van de wet.
De meeste Europese wetgeving kiest voor een conservatieve, beschrijvende definitie van de technologie die zij reguleert. De EU AI Act doet iets anders. Artikel 3, lid 1, definieert een AI-systeem als "een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen."
Die definitie is bewust breed. Brussel wilde niet vastzitten aan een definitie die over vijf jaar achterhaald zou zijn, zoals eerder gebeurde met definities van "elektronische communicatie" of "cloud computing" in oudere regelgeving. Maar die breedte heeft gevolgen voor wat de wet precies omvat, en voor veel organisaties leidt ze tot een verrassende conclusie: systemen die zij nooit als "AI" hadden beschouwd, vallen er wel degelijk onder.
De definitie uitgelegd
De vijf kerncomponenten van de definitie geven elk een eigen uitsnede van wat een AI-systeem onderscheidt van conventionele software.
"Op een machine gebaseerd systeem" lijkt triviaal maar is relevant: het sluit puur menselijke besluitvorming uit, hoe gestandaardiseerd ook. Een checklist die een verpleegkundige doorloopt is geen AI-systeem. Een algoritme dat dezelfde checklist automatisch doorloopt op basis van patientdata wel.
"Verschillende niveaus van autonomie" erkent dat AI-systemen niet binair zijn. Overweging 12 bij de wet verduidelijkt dat autonomie varieert van systemen die alleen reageren op expliciete commando's tot systemen die zelfstandig strategieen ontwikkelen. Een chatbot die gestandaardiseerde antwoorden geeft op basis van trefwoorden heeft lage autonomie. Een systeem dat zelfstandig prijzen aanpast op basis van marktcondities heeft hogere autonomie. Beide kunnen AI-systemen zijn in de zin van de wet.
"Aanpassingsvermogen na inzet" is de component die regulators het meest bezighoudt. Een systeem dat zijn eigen gedrag aanpast op basis van nieuwe data, zonder expliciete herprogrammering, is fundamenteel anders dan statische software. Het maakt vooraf testen minder betrouwbaar: wat u test is niet noodzakelijk wat u deployt en zeker niet wat het systeem na zes maanden gebruik zal doen. Vandaar de verplichting in artikel 9 om risicobeheer als een doorlopend proces te organiseren, niet als een eenmalige pre-deployment check.
"Expliciete of impliciete doelstellingen" erkent dat AI-systemen soms gedrag vertonen dat hun ontwerpers niet bewust hebben geprogrammeerd. Een aanbevelingsalgoritme is ontworpen om relevante content te tonen, maar de impliciete doelstelling, maximale betrokkenheid, kan leiden tot het promoten van sensationele of polariserende content. De wet grijpt hiermee aan op de vraag: wat doet het systeem in de praktijk, ongeacht de officiele doelstelling?
"Output die van invloed kan zijn op fysieke of virtuele omgevingen" breidt de reikwijdte uit van de beslissing zelf naar de gevolgen ervan. Een AI-systeem dat aanbevelingen doet die niemand opvolgt heeft weinig impact. Een systeem dat automatisch handelsorders plaatst, vergunningen afwijst of credit scores berekent, heeft directe impact op de fysieke werkelijkheid van de mensen die erdoor worden geraakt.
Wat valt er wel onder en wat niet
De AI Act maakt expliciet een onderscheid tussen AI-systemen enerzijds en eenvoudige regelgebaseerde systemen anderzijds. Overweging 12 stelt dat systemen die uitsluitend beslissingen nemen op basis van vooraf bepaalde regels, zoals een rekenformule of een beslisboom met vaste regels die door een mens zijn geprogrammeerd, geen AI-systemen zijn in de zin van de wet. Een Excel-spreadsheet die op basis van ingevulde velden een risicocategorie uitspuugt via een formule die een analist zelf heeft geschreven, valt buiten de definitie. Een machine learning-model dat diezelfde categorisering maakt op basis van getrainde parameters valt er wel onder.
Dat onderscheid is in de praktijk moeilijker te maken dan het lijkt. Veel organisaties gebruiken hybride systemen waarbij een ML-component de input verrijkt voor een regelgebaseerde beslissingsengine. In die gevallen is de ML-component zelf een AI-systeem en geldt de wet voor dat onderdeel, zelfs als de uiteindelijke beslissing via regels verloopt.
Drie vragen om te bepalen of uw systeem een AI-systeem is
- Leert het systeem? Genereert het output op basis van geleerde patronen in data, of voert het vooraf geprogrammeerde regels uit?
- Past het zich aan? Kan het systeem zijn eigen gedrag aanpassen op basis van nieuwe data, of is het statisch?
- Heeft de output impact? Heeft de output directe invloed op besluiten, processen of mensen?
Als het antwoord op de eerste twee vragen "ja" is, is het vrijwel zeker een AI-systeem in de zin van de AI Act. Als ook het derde antwoord "ja" is, is de kans groot dat het als hoog-risico kwalificeert.
Interessanter is de vraag wat de definitie inhoudt voor systemen die expliciet zijn uitgezonderd. De wet sluit uit: AI-systemen die uitsluitend worden gebruikt voor militaire, nationale veiligheids- of defensiedoeleinden (artikel 2, lid 3), AI-systemen die uitsluitend voor onderzoek en ontwikkeling worden gebruikt voordat ze op de markt worden gebracht (artikel 2, lid 6), en burgers of rechtspersonen die AI-systemen gebruiken uitsluitend voor persoonlijke, niet-professionele activiteiten (artikel 2, lid 10). Die laatste uitzondering is relevant: een particulier die ChatGPT gebruikt voor privedoeleinden valt buiten de reikwijdte; een bedrijf dat ChatGPT inbouwt in een klantgerichte toepassing valt er volledig onder.
De OECD-definitie als referentiepunt
De definitie in de AI Act is gebaseerd op de OECD-definitie van AI, die in 2023 is bijgewerkt en als internationale standaard geldt. Die afstemming is bewust: de EU wilde niet een unieke Europese definitie die EU-bedrijven benadeelt ten opzichte van mondiale concurrenten die onder lossere regimes vallen. In de praktijk betekent dit dat bedrijven die internationaal opereren een definitie kunnen hanteren voor hun globale compliance-programma, ook al gelden de verplichtingen van de AI Act alleen voor AI-systemen die in de EU op de markt worden gebracht of in gebruik worden genomen.
Annex I: de technieken die in ieder geval AI zijn
Naast de hoofddefinitie bevat annex I een lijst van machine learning-benaderingen die in elk geval als AI worden aangemerkt. Die lijst omvat: supervisie, semi-supervisie, zelf-supervisie en niet-gesuperviseerde benaderingen, reinforcement learning, en deep learning. Daarnaast vallen er systemen onder die redeneerbenadering gebruiken, inclusief deductie en inductie, en systemen die statistisch schatten, kansrekening, Bayesiaanse benaderingen, zoekalgoritmen en optimalisatietechnieken gebruiken.
Die lijst is illustratief, niet uitputtend, maar ze is nuttig voor juristen en compliance-officers die moeten beoordelen of een specifiek systeem onder de wet valt. Als uw systeem een techniek gebruikt die expliciet wordt genoemd, is de kwalificatie als AI-systeem in beginsel gegeven. Als het een techniek gebruikt die niet wordt genoemd, geldt de hoofddefinitie van artikel 3, lid 1.
Implicaties voor classificatie en compliance
De brede definitie heeft directe gevolgen voor welke organisaties moeten nadenken over AI Act-compliance. Een logistiek bedrijf dat een routeoptimalisatie-algoritme gebruikt dat leert van historische leverprestaties valt er waarschijnlijk onder. Een verzekeraar die schademodellen gebruikt die zijn opgebouwd via statistische regressie op actuariele data valt er mogelijk onder, afhankelijk van de mate van aanpassingsvermogen. Een gemeente die een chatbot inzet voor burgercontact valt er vrijwel zeker onder.
De volgende stap na de vraag "Is dit een AI-systeem?" is de vraag "In welke risicocategorie valt het?" Want de definitie bepaalt de reikwijdte van de wet, maar de risicocategorie bepaalt de verplichtingen. Een minimaal-risico AI-systeem, zoals een spamfilter of een AI-gestuurde spelonderdeel, heeft nagenoeg geen complianceverplichtingen. Een hoog-risico systeem, zoals omschreven in annex III, heeft een uitgebreid pakket verplichtingen van risicobeheer tot technische documentatie en conformiteitsbeoordeling.
Dat maakt de definitie strategisch relevant: als een systeem net aan de rand van de AI-definitie zit, is het de moeite waard om zorgvuldig te analyseren of het er in en uit valt. Niet om de wet te omzeilen, maar omdat de verplichtingen voor hoog-risico AI substantieel zijn en organisaties die onnodig complexe compliance-processen optuigen voor systemen die er niet onder vallen, middelen weggooien die elders beter worden ingezet.
General Purpose AI: een apart regime
De AI Act voegt een categorie toe die de definitie-discussie complexer maakt: de general purpose AI-modellen (GPAI). Artikel 3, lid 63, definieert een GPAI-model als een AI-model dat, ongeacht hoe het werd getraind, kan worden ingezet voor een groot scala aan doeleinden, zowel direct als in andere AI-systemen. GPT-4, Claude, Gemini, LLaMA: dit zijn GPAI-modellen.
De definitie-uitdaging met GPAI is dat het model zelf geen specifieke doelstelling heeft, maar de toepassingen die erop worden gebouwd wel. Dit leidt tot een gelaagd compliance-regime: de GPAI-provider heeft verplichtingen onder artikel 53 en verder, en de deployer die het model integreert in een specifieke toepassing heeft de verplichtingen die gelden voor het systeem dat zo ontstaat.
Voor bedrijven die GPAI-modellen via API's integreren in hun producten, betekent dit dat zij moeten beoordelen of hun specifieke toepassing als hoog-risico kwalificeert, ongeacht wat de GPAI-provider zelf heeft gecertificeerd of gedocumenteerd. Een juridische chatbot die advies geeft over arbeidsrecht is een andere toepassing dan een entertainment-chatbot, ook als beide op hetzelfde onderliggende model draaien.
Leer de EU AI Act door te doen
Geen slides. Geen saaie e-learning. Probeer een interactieve module.
Probeer het zelf
3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.
Hoe organisaties de definitie operationeel maken
In de praktijk werkt een AI-inventarisatie het beste als een gestructureerd gesprek langs drie vragen. Ten eerste: genereert het systeem output (voorspelling, aanbeveling, beslissing, tekst, beeld) op basis van geleerde patronen in data, of voert het vooraf geprogrammeerde regels uit? Ten tweede: kan het systeem zijn eigen gedrag aanpassen op basis van nieuwe data, of is het statisch? Ten derde: heeft de output directe invloed op besluiten, processen of mensen?
Als het antwoord op de eerste twee vragen "ja" is, is het vrijwel zeker een AI-systeem in de zin van de AI Act. Als ook het derde antwoord "ja" is, is de kans groot dat het als hoog-risico kwalificeert en zijn de compliance-verplichtingen substantieel.
De risk assessment tool biedt een gestructureerd framework om dit beoordelingsproces stap voor stap te doorlopen. En de risicoclassificatie tool helpt specifiek bij het bepalen van de risicocategorie. Maar de beoordeling begint altijd met een accurate begrijping van de definitie, want wie niet weet of zijn systeem er onder valt, kan de vervolgvragen niet stellen.
De EU heeft voor een brede, technologie-neutrale definitie gekozen precies omdat AI snel evolueert. Die keuze is verstandig vanuit reguleringsoogpunt maar vraagt van organisaties een actieve houding: niet wachten op precedenten of richtsnoeren, maar op basis van de tekst van artikel 3, lid 1, zelf de analyse maken voor elk systeem dat in gebruik is of wordt ingekocht.
Grenszaken: systemen die de definitie betwisten
Sommige systemen zijn helder: een deep learning-model dat medische beelden analyseert is zonder twijfel een AI-systeem. Maar een aanzienlijk deel van de systemen die organisaties gebruiken valt in een grijs gebied waarbij het antwoord afhangt van implementatiedetails die buiten zicht zijn van de compliance-afdeling.
Zo zijn regelgebaseerde systemen met een statistisch component een veelvoorkomend voorbeeld. Een hypotheekbeoordelingssysteem dat gebruik maakt van vaste drempels (inkomen groter dan X, schuld-inkomensratio lager dan Y) gecombineerd met een scorekaart die is afgeleid via logistische regressie op historische data, bevindt zich op de grens. De scorekaart op zich is een statistisch model dat patronen heeft geleerd en valt daarmee onder de definitie. Dat het vervolgens wordt ingevoerd in een regelgebaseerd beslissingsraamwerk maakt het eindproduct niet minder een AI-systeem: de component die leert is er wel degelijk.
Recommandatiesystemen vormen een andere grenszone. Content- en productaanbevelingen op basis van collaborative filtering of matrix factorization vallen onder de definitie vanwege het leeraspect. Maar als die aanbevelingen vervolgens alleen het koopgedrag van consumenten beinvloeden zonder verdere rechtsgevolgen voor specifieke individuen, is de risicoclassificatie waarschijnlijk minimaal. Het systeem valt onder de definitie maar vereist nauwelijks nieuwe compliance-inspanningen.
AI-gestuurde procesoptimalisatie in logistiek, productieplanning of energiebeheer is een categorie die vaak wordt vergeten bij AI-inventarisaties. Een systeem dat routeplannen optimaliseert op basis van historisch verkeersdata en real-time updates leert van data en genereert output die de fysieke werkelijkheid beinvloedt. Het valt onder de definitie van artikel 3, lid 1. Of het als hoog-risico kwalificeert, hangt ervan af of het als veiligheidscomponent fungeert in kritieke infrastructuur (dan: hoog-risico conform Annex III, categorie 2) of alleen kostenoptimalisatie dient (dan: waarschijnlijk minimaal risico).
Wat de definitie betekent voor inkoop
Veel organisaties staan in de positie van deployer: zij kopen systemen in die anderen hebben ontwikkeld. Voor hen heeft de definitievraag een directe praktische consequentie: als een ingekocht systeem een AI-systeem is in de zin van de wet, moet de leverancier als aanbieder aan de verplichtingen van de AI Act voldoen, en moet de inkopende organisatie als deployer aan de verplichtingen van artikel 26 voldoen.
Dat betekent dat inkoopafdeling en juridische afdeling bij elke nieuwe softwareaankoop moeten kunnen beoordelen of het systeem onder de definitie valt. De drie vragen uit de "hoe organisaties de definitie operationeel maken" sectie hierboven zijn de meest pragmatische aanpak: leert het systeem, is het aanpasbaar, en heeft de output directe gevolgen?
Voor systemen die wel onder de definitie vallen, verplicht artikel 26 deployers om: gebruik te maken conform de instructies van de aanbieder, menselijk toezicht te organiseren conform artikel 14, incidenten te rapporteren aan de aanbieder, en voor hoog-risico systemen in de publieke sector een FRIA uit te voeren. Inkoopcriteria moeten worden uitgebreid met de vraag of de aanbieder kan aantonen aan de verplichtingen te voldoen, inclusief technische documentatie, CE-markering voor hoog-risico systemen, en contractuele medewerking aan audits.
Shadow AI: het verborgen compliance-risico
Vraag niet alleen aan IT welke officiele AI-projecten er zijn, maar vraag ook aan afdelingshoofden welke tools hun medewerkers gebruiken voor beslissingen, planningssuggesties of klantinteracties. Shadow AI (systemen die medewerkers zelfstandig hebben aangeschaft of als gratis tool gebruiken) is een reeel risico: als die systemen worden ingezet voor professionele taken die gevolgen hebben voor anderen, vallen de medewerkers die ze gebruiken in de rol van deployer.
Wat nu te doen
Begin met een AI-inventarisatie die breder is dan u verwacht. Vraag niet alleen aan IT welke officieel geregistreerde AI-projecten er zijn, maar vraag ook aan afdelingshoofden welke tools hun medewerkers gebruiken voor beslissingen, planningssuggesties of klantinteracties. Shadow AI, systemen die medewerkers zelfstandig hebben aangeschaft of als gratis tool gebruiken, is een reeel risico: als die systemen worden ingezet voor professionele taken die gevolgen hebben voor anderen, vallen de medewerkers die ze gebruiken in de rol van deployer.
Vervolgens past u de drie-vragen-test toe op elk systeem dat u aantreft. Die test is geen definitief juridisch oordeel maar een eerste filter: systemen die de test duidelijk doorstaan zijn aannemelijk AI-systemen; systemen die er duidelijk buiten vallen zijn geen prioriteit. De moeilijke grensgevallen zijn de gevallen die nader juridisch advies rechtvaardigen, zodat u de definitievraag kunt beantwoorden op basis van de specifieke architectuur van het systeem.
Gebruik de risk assessment tool om vervolgens te bepalen in welke risicocategorie elk geidentificeerd AI-systeem valt. De definitie is de poort; de risicocategorie bepaalt de verplichtingen aan de andere kant van die poort.