Cruciaal voor scope-bepaling: De Europese Commissie heeft op 29 juli 2025 richtsnoeren gepubliceerd die uitleggen wanneer software als AI-systeem onder de AI Act valt. Deze definitie met zeven elementen bepaalt het volledige bereik van de verordening. Inferentie, autonomie en adaptiviteit zijn kernbegrippen die in de praktijk bepalen of uw tools wél of juist niet onder compliance-verplichtingen vallen.
De AI Act is in werking en de eerste verplichtingen gelden al. Toch blijft één vraag steeds terugkomen in organisaties: wanneer is een tool nu eigenlijk een "AI-systeem" in de zin van de AI Act, en wanneer is het gewoon "gewone software"? De Europese Commissie heeft op 29 juli 2025 richtsnoeren gepubliceerd die precies op deze vraag ingaan: de Commission Guidelines on the definition of an artificial intelligence system. Deze blog zet de belangrijkste punten uit die richtsnoeren op een rij, in normale taal, met aandacht voor de gevolgen voor juristen, compliance officers, product teams en data-specialisten.
Waarom deze richtsnoeren er zijn
De AI Act geldt niet voor alle software, maar alleen voor systemen die binnen de definitie van een "AI-systeem" uit artikel 3 lid 1 vallen. Die definitie bepaalt dus het bereik van de hele verordening. De Commissie is in artikel 96 AI Act gevraagd om uitleg te geven bij die definitie, juist omdat deze bepalend is voor vragen als: moet ik een high-risk beoordeling doen, valt mijn use case onder de verboden praktijken, of is mijn dashboard alleen gewone data-analyse?
Belangrijk is dat de richtsnoeren niet bindend zijn. Ze geven richting en interpretatie, maar uiteindelijk is het Hof van Justitie degene die definitief over de uitleg van de AI Act beslist. Tegelijk is de praktijk bij toezichthouders en bedrijven in de EU in hoge mate afhankelijk van hoe de Commissie deze definitie uitlegt. De richtsnoeren zijn gepubliceerd parallel aan de guidelines over verboden AI-praktijken, juist omdat de definitie van een AI-systeem ook bepaalt welke verboden praktijken van toepassing zijn. Sinds 2 februari 2025 zijn zowel de definitie als de verboden praktijken van kracht, waarmee organisaties nu duidelijkheid nodig hebben over wat wel en niet onder de verordening valt.
De kern van de AI-systeemdefinitie
De definitie uit artikel 3 lid 1 AI Act luidt als volgt: "'AI-systeem' betekent een machine-gebaseerd systeem dat is ontworpen om met variërende niveaus van autonomie te opereren en dat na implementatie adaptief gedrag kan vertonen, en dat, voor expliciete of impliciete doelstellingen, afleidt uit de input die het ontvangt hoe outputs zoals voorspellingen, content, aanbevelingen of beslissingen te genereren die fysieke of virtuele omgevingen kunnen beïnvloeden."
Die definitie bevat zeven elementen die samen bepalen of een systeem als AI-systeem geldt. De Commissie benadrukt daarbij een lifecycle-benadering: er is een bouwfase (pre-deployment) en een gebruiksfase (post-deployment), en niet elk element hoeft continu aanwezig te zijn in beide fasen. Sommige elementen verschijnen vooral in de ene fase, andere in de andere. Deze benadering weerspiegelt de complexiteit en diversiteit van AI-systemen en zorgt ervoor dat de definitie aansluit bij de doelstellingen van de AI Act door een breed scala aan systemen te dekken.
| Element | Beschrijving | Fase |
|---|---|---|
| 1. Machine-based system | Software die draait op hardware: processoren, geheugen, opslag, netwerk | Beide fasen |
| 2. Autonomie | Ontworpen om met een bepaalde mate van onafhankelijkheid te opereren | Gebruik |
| 3. Adaptiviteit | Mogelijk adaptief gedrag na ingebruikname (optioneel) | Gebruik |
| 4. Doelstellingen | Werkt met expliciete of impliciete doelstellingen | Beide fasen |
| 5. Inferentie | Leidt uit input af hoe outputs te genereren | Beide fasen |
| 6. Outputs | Voorspellingen, content, aanbevelingen of beslissingen | Gebruik |
| 7. Omgevingsinvloed | Outputs kunnen een fysiek of virtueel omgeving beïnvloeden | Gebruik |
Machine-based: breder dan je denkt
Het eerste element klinkt technisch, maar is in wezen eenvoudig: "machine-based" betekent dat AI-systemen worden ontwikkeld met en draaien op machines. De term "machine" omvat zowel hardware als software. Hardware verwijst naar de fysieke elementen zoals processoren, geheugen, opslagapparaten, netwerkcomponenten en input/output-interfaces die de infrastructuur voor berekeningen bieden. Software omvat computercode, instructies, programma's, besturingssystemen en applicaties die bepalen hoe de hardware data verwerkt en taken uitvoert.
Alle AI-systemen zijn machine-gebaseerd omdat ze machines nodig hebben om te functioneren, zoals voor modeltraining, dataverwerking, voorspellende modellering en grootschalige geautomatiseerde besluitvorming. De volledige levenscyclus van geavanceerde AI-systemen is afhankelijk van machines die vele hardware- of softwarecomponenten kunnen omvatten. Dit element in de definitie onderstreept dat AI-systemen computationeel aangedreven moeten zijn en gebaseerd op machine-operaties.
De term "machine-based" dekt een breed scala aan computationele systemen. Zelfs de meest geavanceerde opkomende quantum computing-systemen, die een aanzienlijke afwijking vormen van traditionele computersystemen, vormen machine-gebaseerde systemen, ondanks hun unieke operationele principes en gebruik van kwantummechanische fenomenen. Ook biologische of organische systemen kunnen eronder vallen, zolang ze maar rekencapaciteit bieden. Met andere woorden: de definitie is niet beperkt tot big tech of tot GPU-clusters. Ook een relatief bescheiden model dat op een server van een middelgrote organisatie draait, kan onder "machine-based system" vallen.
Autonomie: er moet echt iets "zelf" gebeuren
Het tweede element verwijst naar het systeem dat "is ontworpen om met variërende niveaus van autonomie te opereren". Recital 12 van de AI Act verduidelijkt dat de term "variërende niveaus van autonomie" betekent dat AI-systemen zijn ontworpen om te opereren met "enige mate van onafhankelijkheid van acties van menselijke betrokkenheid en van capaciteiten om zonder menselijke interventie te opereren".
De begrippen autonomie en inferentie gaan hand in hand: het inferentievermogen van een AI-systeem (dat wil zeggen, zijn vermogen om outputs zoals voorspellingen, content, aanbevelingen of beslissingen te genereren die fysieke of virtuele omgevingen kunnen beïnvloeden) is cruciaal om zijn autonomie tot stand te brengen. Centraal in het concept van autonomie staat de "menselijke betrokkenheid" en "menselijke interventie" en dus mens-machine-interactie. Aan het ene uiterste van mogelijke mens-machine-interactie staan systemen die zijn ontworpen om alle taken uit te voeren via handmatig bediende functies. Aan het andere uiterste staan systemen die volledig autonoom kunnen opereren zonder enige menselijke betrokkenheid of interventie.
De verwijzing naar "enige mate van onafhankelijkheid van actie" in recital 12 AI Act sluit systemen uit die zijn ontworpen om uitsluitend met volledige handmatige menselijke betrokkenheid en interventie te opereren. Menselijke betrokkenheid en menselijke interventie kunnen direct zijn, bijvoorbeeld via handmatige besturing, of indirect, bijvoorbeeld via geautomatiseerde systeemgebaseerde besturing waarmee mensen systeemoperaties kunnen delegeren of superviseren.
Praktische voorbeelden: Een systeem dat handmatig verstrekte inputs vereist om zelf een output te genereren, is een systeem met "enige mate van onafhankelijkheid van actie", omdat het systeem is ontworpen met het vermogen om een output te genereren zonder dat deze output handmatig wordt gecontroleerd of expliciet en exact wordt gespecificeerd door een mens. Evenzo is een expertsysteem dat een delegatie van procesautomatisering door mensen volgt en dat, op basis van input verstrekt door een mens, in staat is om zelfstandig een output zoals een aanbeveling te produceren, een systeem met "enige mate van onafhankelijkheid van actie".
De verwijzing in de definitie naar "machine-based systeem dat is ontworpen om te opereren met variërende niveaus van autonomie" onderstreept het vermogen van het systeem om te interacteren met zijn externe omgeving, in plaats van een keuze voor een specifieke techniek, zoals machine learning, of modelarchitectuur voor de ontwikkeling van het systeem. Het niveau van autonomie is daarom een noodzakelijke voorwaarde om te bepalen of een systeem in aanmerking komt als AI-systeem. Alle systemen die zijn ontworpen om met een redelijke mate van onafhankelijkheid van acties te opereren, voldoen aan de voorwaarde van autonomie in de definitie van een AI-systeem.
Systemen die het vermogen hebben om met beperkte of geen menselijke interventie te opereren in specifieke gebruikscontexten, zoals in de hoog-risicogebieden geïdentificeerd in Bijlage I en Bijlage III AI Act, kunnen onder bepaalde omstandigheden aanvullende potentiële risico's en overwegingen voor menselijk toezicht met zich meebrengen. Het niveau van autonomie is een belangrijke overweging voor een aanbieder bij het ontwerpen van bijvoorbeeld het menselijk toezicht of risicobeperkende maatregelen van het systeem in de context van het beoogde doel van een systeem.
Adaptiviteit: belangrijk maar niet beslissend
Het derde element van de definitie in artikel 3(1) AI Act is dat het systeem "adaptief gedrag na implementatie kan vertonen". De concepten van autonomie en adaptiviteit zijn twee verschillende maar nauw verwante concepten. Ze worden vaak samen besproken, maar ze vertegenwoordigen verschillende dimensies van de functionaliteit van een AI-systeem. Recital 12 AI Act verduidelijkt dat "adaptiviteit" verwijst naar zelf-lerende capaciteiten, waardoor het gedrag van het systeem kan veranderen tijdens gebruik. Het nieuwe gedrag van het aangepaste systeem kan verschillende resultaten opleveren dan het vorige systeem voor dezelfde inputs.
Het gebruik van de term "kan" in relatie tot dit element van de definitie geeft aan dat een systeem adaptiviteit of zelf-lerende capaciteiten na implementatie kan, maar niet noodzakelijkerwijs hoeft te bezitten om een AI-systeem te vormen. Dienovereenkomstig is het vermogen van een systeem om automatisch te leren, nieuwe patronen te ontdekken of relaties in de data te identificeren die verder gaan dan waarvoor het aanvankelijk was getraind, een facultatieve en dus geen beslissende voorwaarde voor het bepalen of het systeem in aanmerking komt als AI-systeem.
Dit is een cruciaal punt dat veel misverstanden voorkomt. Een model dat in de ontwikkelfase wordt getraind en daarna "bevroren" wordt ingezet zonder verdere aanpassingen, kan dus nog steeds een AI-systeem zijn, zolang het aan de andere elementen voldoet - met name het vermogen tot inferentie.
Doelstellingen: het verschil tussen interne doelen en beoogd gebruik
Het vierde element van de definitie betreft de doelstellingen van het AI-systeem. AI-systemen zijn ontworpen om volgens één of meer doelstellingen te opereren. De doelstellingen van het systeem kunnen expliciet of impliciet worden gedefinieerd. Expliciete doelstellingen verwijzen naar duidelijk geformuleerde doelen die direct door de ontwikkelaar in het systeem zijn gecodeerd. Ze kunnen bijvoorbeeld worden gespecificeerd als de optimalisatie van een bepaalde kostenfunctie, een waarschijnlijkheid of een cumulatieve beloning. Impliciete doelstellingen verwijzen naar doelen die niet expliciet worden vermeld, maar die kunnen worden afgeleid uit het gedrag of de onderliggende aannames van het systeem. Deze doelstellingen kunnen voortkomen uit de trainingsdata of uit de interactie van het AI-systeem met zijn omgeving.
Recital 12 AI Act verduidelijkt dat "de doelstellingen van het AI-systeem kunnen verschillen van het beoogde doel van het AI-systeem in een specifieke context". De doelstellingen van een AI-systeem zijn intern aan het systeem en verwijzen naar de doelen van de uit te voeren taken en hun resultaten. Een virtueel AI-assistentsysteem voor bedrijven kan bijvoorbeeld als doelstellingen hebben om gebruikersvragen over een reeks documenten met hoge nauwkeurigheid en een laag foutenpercentage te beantwoorden.
Daarentegen is het beoogde doel extern georiënteerd en omvat het de context waarin het systeem is ontworpen om te worden ingezet en hoe het moet worden gebruikt. Volgens artikel 3(12) AI Act verwijst het beoogde doel van een AI-systeem naar "het gebruik waarvoor een AI-systeem door de aanbieder is bedoeld". In het geval van een virtueel AI-assistentsysteem voor bedrijven kan het beoogde doel bijvoorbeeld zijn om een bepaalde afdeling van een bedrijf te helpen bij het uitvoeren van bepaalde taken. Dit kan vereisen dat de documenten die de virtuele assistent gebruikt voldoen aan bepaalde vereisten (bijvoorbeeld lengte, opmaak) en dat de gebruikersvragen beperkt zijn tot het domein waarin het systeem bedoeld is te opereren.
Dit beoogde doel wordt niet alleen vervuld door de interne werking van het systeem om zijn doelstellingen te bereiken, maar ook door andere factoren, zoals de integratie van het systeem in een bredere klantenservice workflow, de data die door het systeem worden gebruikt of gebruiksinstructies. Voor organisaties betekent dit dat zowel de technische doelstellingen als de context van inzet moeten worden gedocumenteerd. Dat is later relevant bij de vraag of een systeem bijvoorbeeld als "hoog risico" telt.
Inferentie: het hart van de AI-definitie
Het vijfde element van een AI-systeem is dat het in staat moet zijn om, uit de input die het ontvangt, af te leiden hoe outputs te genereren. Recital 12 AI Act verduidelijkt dat "[e]en belangrijke eigenschap van AI-systemen hun vermogen is om te infereren." Zoals verder uitgelegd in dat recital, moeten AI-systemen worden onderscheiden van "eenvoudigere traditionele softwaresystemen of programmeerbenaderingen en mogen geen systemen dekken die gebaseerd zijn op regels die uitsluitend door natuurlijke personen zijn gedefinieerd om automatisch operaties uit te voeren." Dit vermogen om te infereren is daarom een belangrijke, onmisbare voorwaarde die AI-systemen onderscheidt van andere soorten systemen.
Recital 12 legt ook uit dat '[d]it vermogen om te infereren verwijst naar het proces van het verkrijgen van outputs, zoals voorspellingen, content, aanbevelingen of beslissingen, die fysieke en virtuele omgevingen kunnen beïnvloeden, en naar een vermogen van AI-systemen om modellen of algoritmen, of beide, af te leiden uit inputs of data.' Dit begrip van het concept 'inferentie' is niet in strijd met de ISO/IEC 22989-standaard, die inferentie definieert 'als redeneren waarbij conclusies worden afgeleid uit bekende premissen' en deze standaard bevat een AI-specifieke opmerking die stelt: '[i]n AI is een premisse een feit, een regel, een model, een kenmerk of ruwe data."
Het 'proces van het verkrijgen van outputs, zoals voorspellingen, content, aanbevelingen of beslissingen, die fysieke en virtuele omgevingen kunnen beïnvloeden', verwijst naar het vermogen van het AI-systeem, voornamelijk in de 'gebruiksfase', om outputs te genereren op basis van inputs. Een 'vermogen van AI-systemen om modellen of algoritmes, of beide, af te leiden uit inputs of data' verwijst primair, maar is niet beperkt tot, de 'bouwfase' van het systeem en onderstreept de relevantie van de technieken die worden gebruikt voor het bouwen van een systeem.
De termen 'afleiden hoe', gebruikt in artikel 3(1) en verduidelijkt in recital 12 AI Act, zijn breder dan, en niet alleen beperkt tot, een eng begrip van het concept inferentie als een vermogen van een systeem om outputs af te leiden uit gegeven inputs, en dus het resultaat af te leiden. Dienovereenkomstig moet de formulering die wordt gebruikt in artikel 3(1) AI Act, dat wil zeggen 'leidt af, hoe outputs te genereren', worden begrepen als verwijzend naar de bouwfase, waarbij een systeem outputs afleidt door middel van AI-technieken die inferencing mogelijk maken.
Twee hoofdcategorieën AI-technieken die inferentie mogelijk maken
Met specifieke focus op de bouwfase van het AI-systeem, verduidelijkt recital 12 AI Act verder dat '[d]e technieken die inferentie mogelijk maken tijdens het bouwen van een AI-systeem omvatten machine learning-benaderingen die uit data leren hoe bepaalde doelstellingen te bereiken, en logic- en knowledge-based benaderingen die afleiden uit gecodeerde kennis of symbolische representatie van de op te lossen taak.' Deze technieken moeten worden begrepen als 'AI-technieken'.
| Machine Learning-benaderingen | Logic & Knowledge-based benaderingen |
|---|---|
Supervised learning: Leren van gelabelde data (spam detectie, beeldclassificatie, fraudedetectie) | Expert systemen: Medische diagnose o.b.v. gecodeerde kennis van experts |
Unsupervised learning: Patronen vinden zonder labels (clustering, geneesmiddelenontdekking) | Kennisbanken: Feiten, regels en relaties gecodeerd door mensen |
Self-supervised learning: Data creëert eigen labels (taalmodellen, beeldherkenning) | Symbolisch redeneren: Logische inferentie, deductieve engines |
Reinforcement learning: Leren door trial-and-error (robotarmen, autonome voertuigen) | Zoek- en optimalisatie: Sorteren, matchen, chaining operaties |
Deep learning: Neurale netwerken met gelaagde architecturen (GPT-modellen) | Klassieke NLP: Grammaticale analyse, syntactische parsing |
De eerste categorie AI-technieken omvat een grote verscheidenheid aan benaderingen die een systeem in staat stellen te 'leren'. Bij supervised learning leert het AI-systeem van annotaties (gelabelde data), waarbij de inputdata wordt gekoppeld aan de juiste output. Een e-mailspamdetectiesysteem is hiervan een voorbeeld: tijdens de bouwfase wordt het systeem getraind op e-mails die door mensen zijn gelabeld als 'spam' of 'niet spam'. Andere voorbeelden zijn beeldclassificatiesystemen, diagnostische medische systemen en fraudedetectiesystemen.
Bij unsupervised learning leert het AI-systeem van data die niet is gelabeld. Het model wordt getraind om patronen, structuren of relaties in de data te vinden zonder expliciete begeleiding. AI-systemen voor geneesmiddelenontdekking gebruiken bijvoorbeeld clustering en anomaliedetectie om chemische verbindingen te groeperen en potentiële nieuwe behandelingen te voorspellen.
Self-supervised learning is een subcategorie waarbij het AI-systeem leert van ongelabelde data op een supervised manier, waarbij de data zelf wordt gebruikt om zijn eigen labels te creëren. Taalmodellen die het volgende token in een zin voorspellen of beeldherkenningssystemen die ontbrekende pixels voorspellen zijn hiervan voorbeelden.
Reinforcement learning systemen leren door trial and error, waarbij ze hun strategie verfijnen op basis van feedback uit de omgeving. Een robotarm die objecten leert grijpen of systemen voor gepersonaliseerde contentaanbevelingen zijn voorbeelden.
Deep learning is een subset van machine learning die gelaagde architecturen (neurale netwerken) gebruikt voor representatieleren. AI-systemen gebaseerd op deep learning kunnen automatisch kenmerken leren uit ruwe data en zijn de technologie achter veel recente doorbraken in AI.
Naast machine learning-benaderingen zijn de tweede categorie technieken logic- en knowledge-based benaderingen. In plaats van te leren van data, leren deze AI-systemen van kennis, inclusief regels, feiten en relaties gecodeerd door menselijke experts. Klassieke taalverwerkingsmodellen op basis van grammaticale kennis, expertsystemen voor medische diagnose en systemen met deductieve engines zijn hiervan voorbeelden.
Vier soorten outputs en hun impact op omgevingen
Het zesde element van de AI-systeemdefinitie in artikel 3(1) AI Act is dat het systeem afleidt 'hoe outputs te genereren zoals voorspellingen, content, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden'. Het vermogen van een systeem om outputs te genereren is fundamenteel voor wat AI-systemen doen en wat die systemen onderscheidt van andere vormen van software.
Outputs van AI-systemen behoren tot vier brede categorieën: voorspellingen, content, aanbevelingen en beslissingen. Elke categorie verschilt in het niveau van menselijke betrokkenheid.
Voorspellingen zijn een van de meest voorkomende outputs die AI-systemen produceren. Een voorspelling is een schatting over een onbekende waarde uit bekende waarden. AI-systemen die machine learning gebruiken zijn in staat om voorspellingen te genereren die complexe patronen in data onthullen. AI-systemen ingezet in zelfrijdende auto's doen bijvoorbeeld realtime voorspellingen in een extreem complexe omgeving. AI-systemen voor energieverbruik schatten energieverbruik door data van slimme meters, weersvoorspellingen en gedragspatronen te analyseren.
Content verwijst naar het genereren van nieuw materiaal door een AI-systeem: tekst, afbeeldingen, video's, muziek. Er is een toenemend aantal AI-systemen dat machine learning-modellen gebruikt (bijvoorbeeld GPT-technologieën) om content te genereren. Hoewel content vanuit een technisch perspectief kan worden begrepen in termen van een reeks 'voorspellingen', wordt het vanwege de prevalentie in generatieve AI-systemen in recital 12 AI Act als aparte categorie genoemd.
Aanbevelingen verwijzen naar suggesties voor specifieke acties, producten of diensten op basis van voorkeuren, gedrag of andere data-inputs. AI-gebaseerde aanbevelingssystemen kunnen grootschalige data benutten, zich aanpassen aan gebruikersgedrag in realtime en zeer gepersonaliseerde aanbevelingen bieden. Als aanbevelingen automatisch worden toegepast, worden ze beslissingen.
Beslissingen verwijzen naar conclusies of keuzes gemaakt door een systeem. Een AI-systeem dat een beslissing als output heeft, automatiseert processen die traditioneel door menselijk oordeel worden afgehandeld. Een dergelijk systeem impliceert een volledig geautomatiseerd proces waarbij een uitkomst in de omgeving wordt geproduceerd zonder enige menselijke interventie.
Het zevende element van de definitie is dat de outputs van het systeem 'fysieke of virtuele omgevingen kunnen beïnvloeden'. Dat element benadrukt dat AI-systemen niet passief zijn, maar actief impact hebben op de omgevingen waarin ze worden ingezet. De verwijzing naar 'fysieke of virtuele omgevingen' geeft aan dat de invloed zowel op tastbare, fysieke objecten (bijvoorbeeld robotarm) als op virtuele omgevingen kan zijn, inclusief digitale ruimten, datastromen en software-ecosystemen.
Wat valt er juist niet onder de definitie?
Recital 12 legt uit dat de AI-systeemdefinitie AI-systemen moet onderscheiden van "eenvoudigere traditionele softwaresystemen of programmeerbenaderingen en geen systemen mag dekken die gebaseerd zijn op regels die uitsluitend door natuurlijke personen zijn gedefinieerd om automatisch operaties uit te voeren." Sommige systemen hebben het vermogen om op een beperkte manier te infereren, maar kunnen desondanks buiten het toepassingsgebied vallen vanwege hun beperkte capaciteit om patronen te analyseren en autonoom hun output aan te passen. De Commissie noemt vijf belangrijke categorieën:
1. Systemen voor het verbeteren van wiskundige optimalisatie. Systemen die worden gebruikt om wiskundige optimalisatie te verbeteren of om traditionele, gevestigde optimalisatiemethoden te versnellen en te benaderen vallen buiten het toepassingsgebied. Dit komt doordat, hoewel die modellen het vermogen hebben om te infereren, ze niet verder gaan dan 'basisdataverwerking'. Een indicatie kan zijn dat het systeem al vele jaren op geconsolideerde wijze wordt gebruikt. Fysica-gebaseerde systemen kunnen bijvoorbeeld machine learning gebruiken om computationele prestaties te verbeteren of traditionele simulaties te versnellen. Satelliet telecommunicatiesystemen kunnen ML gebruiken om bandbreedtetoewijzing te optimaliseren met vergelijkbare prestaties als gevestigde methoden. Hoewel deze systemen automatische zelfaanpassingen kunnen bevatten, zijn deze gericht op het optimaliseren van de werking door computationele prestaties te verbeteren, niet op het aanpassen van besluitvormingsmodellen op een intelligente manier.
2. Basisdataverwerking. Dit verwijst naar systemen die vooraf gedefinieerde, expliciete instructies of operaties volgen zonder enig 'leren, redeneren of modelleren' in de systeemlevenscyclus. Ze opereren op basis van vaste door mensen geprogrammeerde regels, zonder AI-technieken. Voorbeelden zijn databasebeheersystemen die data sorteren op criteria ("vind alle klanten die product X kochten"), standaard spreadsheetsoftware zonder AI-functionaliteiten, en software die een bevolkingsgemiddelde berekent. Ook systemen voor beschrijvende analyse, hypothesetoetsing en visualisatie vallen hieronder. Een verkoopdashboard kan statistische methoden gebruiken om totale verkoop en trends te tonen, maar beveelt niet aan hoe de verkoop te verbeteren.
3. Systemen gebaseerd op klassieke heuristieken. Klassieke heuristieken zijn probleemoplossingstechnieken die vertrouwen op op ervaring gebaseerde methoden om efficiënt benaderde oplossingen te vinden. Ze omvatten doorgaans op regels gebaseerde benaderingen of trial-and-error-strategieën in plaats van data-gedreven leren. Een schaakprogramma dat een minimax-algoritme gebruikt met heuristische evaluatiefuncties kan bordposities beoordelen zonder voorafgaand leren van data. Heuristische methoden kunnen aanpassingsvermogen en generalisatie missen in vergelijking met AI-systemen die leren van ervaring.
4. Eenvoudige voorspellingssystemen. Alle machine-gebaseerde systemen waarvan de prestaties kunnen worden bereikt via een basisstatistische leerregel vallen buiten het toepassingsgebied vanwege hun prestaties. In financiële voorspellingen kunnen systemen worden gebruikt die altijd de historische gemiddelde prijs voorspellen. Dergelijke basisbenchmarkingmethoden helpen te beoordelen of meer geavanceerde modellen waarde toevoegen, maar bereiken niet de prestaties van complexere systemen. Statische schatting- en triviale voorspellers die alleen gemiddelden of mean voorspellen zijn andere voorbeelden.
De rode draad is helder: zodra een systeem niet verder gaat dan basisstatistiek, vaste regels of het marginaal versnellen van een klassiek model, is het in principe geen AI-systeem in de zin van de AI Act.
Wat betekent dit voor uw organisatie?
De bepaling of een softwaresysteem een AI-systeem is, moet gebaseerd zijn op de specifieke architectuur en functionaliteit van een gegeven systeem en moet rekening houden met de zeven elementen van de definitie die zijn vastgelegd in artikel 3(1) AI Act. Geen automatische bepaling of uitputtende lijsten van systemen die binnen of buiten de definitie vallen zijn mogelijk. De richtsnoeren benadrukken dit expliciet: elke beoordeling moet worden gebaseerd op de werkelijke kenmerken van het systeem.
Voor organisaties betekent dit dat een gedegen inventarisatie essentieel is. Bij een AI-register, AI-use-case inventaris of AI-governanceproces moet eerst worden bepaald of iets überhaupt een AI-systeem is. Deze richtsnoeren geven argumenten om bepaalde BI-tools, dashboards of eenvoudige scripts expliciet buiten scope te plaatsen, mits goed onderbouwd. Documenteer per systeem kort waarom het wel of niet onder de definitie valt, bij voorkeur met verwijzing naar de specifieke elementen en categorieën uit de richtsnoeren.
Zodra er sprake is van machine learning, generatieve modellen, aanbevelingsalgoritmes of expertsystemen die uit data of kennisregels outputs afleiden, zal de definitie al snel van toepassing zijn. Moderne toepassingen zoals chatbots op basis van LLM's, HR-screeningtools met scoring, dynamische prijsalgoritmes of interne assistenten die documenten doorzoeken met een transformer-model vallen doorgaans onder de definitie.
Veel softwareplatformen voegen tegenwoordig AI-functionaliteit toe, bijvoorbeeld een "AI-assistant" in een CRM of teksteditor. De onderliggende applicatie valt mogelijk niet onder de definitie, terwijl de AI-module dat wel doet. In governance-documentatie is het dan verstandig afzonderlijk te beschrijven welke component het AI-systeem vormt. Dit voorkomt dat u onnodig een volledige applicatie onder de AI Act-verplichtingen brengt, terwijl slechts één module daaronder valt.
Het is belangrijk te beseffen dat alleen bepaalde AI-systemen onderworpen zijn aan regelgevende verplichtingen en toezicht onder de AI Act. De risicogebaseerde benadering van de AI Act betekent dat alleen die systemen die de belangrijkste risico's opleveren voor fundamentele rechten en vrijheden onderworpen zullen zijn aan de verbodsbepalingen in artikel 5 AI Act, het regelgevingskader voor hoog-risico AI-systemen gedekt door artikel 6 AI Act en de transparantievereisten voor een beperkt aantal vooraf gedefinieerde AI-systemen vastgelegd in artikel 50 AI Act. De overgrote meerderheid van systemen, zelfs als ze in aanmerking komen als AI-systemen in de zin van artikel 3(1) AI Act, zullen niet onderworpen zijn aan enige regelgevende vereisten onder de AI Act.
AI-systeemdefinitie Quiz
Test je kennis over de AI-systeemdefinitie uit de AI Act. Hoeveel elementen bevat de definitie? Wat is het verschil tussen autonomie en adaptiviteit? En wanneer valt een systeem juist niet onder de Act?
Hulp nodig bij scope-bepaling? 💡
Wilt u weten of uw systemen onder de AI Act vallen? Of heeft u vragen over het opzetten van een AI-register volgens de nieuwe richtsnoeren? Neem contact met ons op voor een vrijblijvend gesprek over hoe u de definitie praktisch kunt toepassen binnen uw organisatie.