Responsible AI Platform

Wanneer ben je deployer van een AI agent onder de EU AI Act?

··12 min leestijd

Kort antwoord: gebruik je een AI agent binnen je organisatie, onder jouw gezag en voor een professioneel doel, dan ben je al snel deployer in de zin van artikel 3(4) AI Act. Dat betekent niet automatisch dat alle zware verplichtingen voor hoog-risico AI direct op jou van toepassing zijn. Maar het betekent wel dat je niet kunt doen alsof de verantwoordelijkheid volledig bij de leverancier ligt.

De meeste organisaties stellen nog steeds de verkeerde vraag. Ze vragen of medewerkers ChatGPT, Copilot of een andere AI agent wel mogen gebruiken. De betere vraag is: vanaf welk moment gebruiken wij zo'n systeem eigenlijk onder onze eigen verantwoordelijkheid?

Dat verschil lijkt semantisch, maar is het niet. Zodra een organisatie een AI agent inzet in recruitment, klantenservice, interne research, softwareontwikkeling of besluitvorming, verschuift het gesprek van experiment naar governance. En precies daar komt de EU AI Act om de hoek kijken.

Waarom deze vraag ineens urgent is

AI agents zijn in korte tijd van curiositeit naar werkmiddel gegaan. Niet alleen developers gebruiken ze. Ook juristen, HR-teams, salesafdelingen, compliance officers en supportmedewerkers zetten agents in voor samenvattingen, analyses, communicatie, triage en automatisering.

Dat gebeurt vaak zonder groot implementatieplan. Een team test een tool, koppelt een mailbox, laat de agent documenten doorzoeken of antwoorden opstellen, en voor je het weet is er een systeem operationeel dat toegang heeft tot bedrijfsinformatie, processen ondersteunt en output genereert waar mensen op vertrouwen. Wat begint als een pilot, eindigt vaak als een echte workflow.

Dat is precies waarom de rolvraag zo belangrijk wordt. De EU AI Act kijkt niet alleen naar wie een systeem bouwt, maar ook naar wie het gebruikt.

De EU AI Act kent geen aparte categorie voor "AI agents"

De verordening gebruikt het woord "AI agent" niet als aparte juridische categorie. De eerste vraag is dus niet of iets een agent is, maar of het een AI-systeem is in de zin van artikel 3(1) AI Act. De Europese Commissie heeft daar in 2025 nadere richtsnoeren over gepubliceerd, die wij eerder bespraken in Wat is een AI-systeem? De Europese Commissie geeft antwoord.

In gewone taal: als een systeem met een zekere mate van autonomie werkt en op basis van input outputs genereert zoals aanbevelingen, content, voorspellingen of beslissingen, dan zit je al snel binnen de reikwijdte van de AI Act. Veel hedendaagse AI agents voldoen aan dat profiel zonder moeite.

Een agent is juridisch dus niet interessant omdat hij "agent" heet, maar omdat hij vaak een AI-systeem is dat binnen een organisatie concrete taken uitvoert.

Wat is een deployer volgens de AI Act?

Artikel 3(4) AI Act definieert een deployer als een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan dat een AI-systeem gebruikt onder zijn gezag, behalve wanneer dat gebeurt in het kader van een persoonlijke, niet-beroepsmatige activiteit.

Dat is een korte definitie met grote gevolgen.

De kern zit in twee elementen:

  • het gaat om gebruik van een AI-systeem
  • dat gebruik vindt plaats onder jouw gezag en niet louter privé

Je hoeft dus geen aanbieder, ontwikkelaar of modelbouwer te zijn om onder de AI Act een relevante rol te hebben. Zodra jouw organisatie een AI-systeem inzet in haar eigen processen, ben je juridisch niet langer alleen toeschouwer.

Provider en deployer zijn niet hetzelfde

De verwarring ontstaat vaak omdat organisaties denken dat de leverancier alles regelt. Dat klopt maar ten dele.

Een provider ontwikkelt het AI-systeem, laat het ontwikkelen, of brengt het onder eigen naam op de markt of in gebruik. Een deployer gebruikt het systeem vervolgens binnen de eigen organisatie.

In de praktijk betekent dat bijvoorbeeld:

  • Microsoft, OpenAI of een gespecialiseerde SaaS-aanbieder kan provider zijn
  • jouw organisatie kan deployer zijn zodra zij de tool inzet voor recruitment, klantenservice, interne analyses of operationele besluitvorming

Dat onderscheid is niet cosmetisch. Voor hoog-risico AI-systemen legt artikel 26 van de AI Act expliciet verplichtingen op aan deployers, zoals gebruik volgens de instructies, menselijk toezicht, monitoring, logbewaring en in sommige gevallen een FRIA of DPIA.

Wanneer ben je waarschijnlijk deployer van een AI agent?

Er is geen magisch vinkje waarop de wet ineens omslaat. Maar er zijn wel duidelijke signalen.

1

Je gebruikt de agent in een echt werkproces

Niet als vrijblijvende demo, maar voor een taak die onderdeel is van hoe jouw organisatie werkt. Denk aan selectie van kandidaten, beantwoording van klantvragen, dossieranalyse, contractreview of codegeneratie.

2

De agent werkt onder jouw organisatorische gezag

De tool draait misschien bij een externe leverancier, maar jij bepaalt wie hem gebruikt, voor welk doel, met welke data en binnen welke workflow. Dat is precies het soort gebruik waar de deployer-rol op doelt.

3

Mensen vertrouwen op de output van de agent

Zodra medewerkers aanbevelingen, analyses of gegenereerde output meenemen in hun werk, krijgt het systeem feitelijke invloed. Ook als er nog een mens tussen zit, ben je niet meer in de fase van vrijblijvende oriëntatie.

4

De agent raakt persoonsgegevens, rechten of belangrijke beslissingen

Hoe dichter een agent in de buurt komt van HR, finance, zorg, publieke dienstverlening of andere gevoelige contexten, hoe relevanter de deployer-vraag wordt. Niet omdat elke agent dan automatisch hoog-risico is, maar omdat de impact groter wordt.

Wanneer ben je niet, of nog niet echt, deployer?

Ook hier is nuance nodig.

Een incidentele privétest door een medewerker thuis, buiten werktijd en zonder organisatorische context, valt in beginsel buiten de deployer-definitie. De AI Act maakt immers expliciet een uitzondering voor persoonlijke, niet-beroepsmatige activiteit.

Maar organisaties maken vaak een denkfout. Ze zien een pilot of experiment als bewijs dat er nog geen juridische rol bestaat. Dat is te simpel. Een pilot kan nog steeds professioneel gebruik zijn. Als een team in een echte workflow met echte data en echte beslisimpact test, dan is het nog steeds gebruik onder organisatorisch gezag.

Met andere woorden: "we zijn nog maar aan het testen" is geen juridisch schild.

Niet elke deployer van een AI agent valt meteen onder artikel 26

Hier zit een belangrijk onderscheid dat in veel discussies ontbreekt.

Je kunt deployer zijn zonder dat alle zware verplichtingen voor hoog-risico AI al gelden. Artikel 26 richt zich namelijk specifiek op deployers van hoog-risico AI-systemen. De deployer-rol komt dus eerst. De vraag of daar vervolgens artikel 26-verplichtingen uit volgen, hangt af van de classificatie van het systeem.

Dat betekent praktisch:

  • gebruik je een AI agent voor interne notities of lage-risico ondersteuning, dan ben je mogelijk wel deployer, maar niet per se deployer van een hoog-risico AI-systeem
  • gebruik je een agent in HR, kredietbeoordeling, onderwijs, rechtshandhaving of andere Annex III-contexten, dan wordt het gesprek onmiddellijk serieuzer

Juist daarom is rolbepaling zo belangrijk. Zonder die stap kun je onmogelijk weten welke verplichtingen daarna volgen.

Praktische vuistregel

Vraag niet alleen: "is deze tool slim?" Vraag vooral: waarvoor gebruiken wij hem, onder welk gezag, met welke data, en wat gebeurt er als de output fout zit? Dat zijn meestal de vragen die bepalen of je juridisch al als deployer moet denken.

LearnWize2 minuten, geen account nodig

Leer de EU AI Act door te doen

Geen slides. Geen saaie e-learning. Probeer een interactieve module.

Interactive ChallengePowered by LearnWize LearnWize

Probeer het zelf

3 interactieve oefeningen. Verdien XP. Ontdek waarom dit beter werkt dan lezen.

FlashcardsMatchingAudit

Vier herkenbare voorbeelden

1. Een HR-agent die sollicitaties voorselecteert

Een organisatie gebruikt een agent die cv's samenvat, kandidaten rangschikt en recruiters attendeert op "beste matches". Misschien neemt het systeem niet zelf de definitieve beslissing, maar het beïnvloedt wel degelijk de selectie.

In zo'n geval is de organisatie zeer waarschijnlijk deployer. En afhankelijk van de precieze functionaliteit en impact kom je al snel in de buurt van een high-risk toepassing onder Annex III.

2. Een klantenservice-agent met toegang tot dossiers

Een supportagent die klantvragen afhandelt, mails opstelt, gegevens ophaalt en suggesties doet voor antwoorden, is niet automatisch high-risk. Maar zodra die agent structureel draait binnen jouw klantproces en medewerkers daarop vertrouwen, gebruik je hem wel degelijk onder jouw gezag.

De deployer-vraag is dan niet theoretisch meer. Je moet nadenken over instructies, logging, toezicht, privacy en foutafhandeling.

3. Een interne research-agent voor legal of compliance

Denk aan een agent die beleid samenvat, regelgeving doorzoekt, contracten vergelijkt of notities opstelt voor juristen en compliance officers. Dat lijkt een intern hulpmiddel, en vaak is het risicoprofiel lager dan bij HR of kredietverlening. Maar ook hier geldt: het systeem wordt ingezet in een professionele context, onder organisatorisch gezag, voor echte werkzaamheden.

Ook dit is dus niet simpelweg "een handige tool". Het is een AI-systeem binnen jouw governance-sfeer.

4. Een coding agent in softwareontwikkeling

Een coding agent die code genereert, tests draait of changes voorstelt, zal meestal niet direct onder de high-risk categorie vallen. Maar de organisatie die deze agent inzet in haar ontwikkelstraat is nog steeds al snel deployer. Alleen liggen de grootste risico's hier vaak eerder bij security, kwaliteitsborging, intellectueel eigendom en software supply chain dan bij Annex III.

Waarom deze rolbepaling ertoe doet

De deployer-rol is belangrijk om drie redenen.

Ten eerste: compliance. Voor hoog-risico AI-systemen komen expliciete verplichtingen in beeld, zoals uitgewerkt in artikel 26. Je kunt die niet wegcontracteren met een leverancier.

Ten tweede: governance. Ook buiten high-risk contexten moet iemand binnen de organisatie eigenaar zijn van het gebruik, de kaders, de risicoafweging en de monitoring.

Ten derde: accountability. Wanneer een AI agent fouten maakt, discrimineert, onjuiste output geeft of onbedoeld gevoelige informatie gebruikt, zal de vraag niet alleen zijn wie de tool heeft gebouwd. De vraag zal ook zijn wie hem gebruikte, waarom, en met welke waarborgen.

Daar zit de echte betekenis van deployer.

Drie dingen die organisaties nu moeten doen

1. Maak een inventarisatie van alle AI agents in gebruik

Niet alleen formeel goedgekeurde tools, maar ook shadow AI. Welke teams gebruiken welke agents? Waarvoor precies? Met welke data? En met welke koppelingen?

2. Bepaal per use case je rol in de keten

Ben je puur deployer? Ook provider? Alleen gebruiker van een lage-risico toepassing? Of verschuif je door aanpassing, fine-tuning of eigen branding richting een andere rol? Die analyse hoort per use case te gebeuren, niet op organisatieniveau in het algemeen.

3. Richt minimale governance in voordat je opschaalt

Wijs eigenaarschap toe. Leg toegestane use cases vast. Regel menselijk toezicht. Denk na over logging, toegangsrechten, privacy-impact en escalatie. Niet omdat elke agent meteen verboden of hoog-risico is, maar omdat vrijblijvend gebruik bijna altijd eindigt in bestuurlijke chaos.

📬 AI Act Nieuwsbrief

Wekelijks de belangrijkste AI Act ontwikkelingen in je inbox.

Geen spam · Altijd opzegbaar

De echte fout zit niet in de tool, maar in het denken erover

De grootste fout die organisaties nu maken is dat ze AI agents blijven behandelen als losse productiviteitstools. Alsof het juridisch en organisatorisch niet uitmaakt of een medewerker een tekstvak gebruikt of een systeem inzet dat analyses maakt, data ophaalt, aanbevelingen genereert en invloed uitoefent op echte werkprocessen.

Dat verschil maakt wél uit.

De AI Act vraagt niet van organisaties dat zij in paniek raken bij elk nieuw AI-instrument. Maar de verordening verwacht wel dat organisaties weten welke rol zij innemen. En voor veel AI agents begint dat simpelweg met de erkenning dat je niet alleen gebruiker bent in alledaagse zin, maar deployer in juridische zin.

Wie die stap overslaat, loopt later vast in classificatie, governance en accountability. Wie hem nu zet, heeft een veel betere kans om AI verantwoord op te schalen.

Veelgestelde vragen over deployers en AI agents

Bronnen

Responsible AI Platform AI Explorer: Artikel 3 AI Act: definities
Autoriteit Persoonsgegevens: EU AI Act
The Future Society: AI agents in the EU AI Act

Voor organisaties die nu al AI agents inzetten, is de belangrijkste les niet dat elke agent direct hoog-risico is. De belangrijkste les is dat je veel eerder dan gedacht in een juridische rol terechtkomt. En vanaf dat moment is governance geen luxe meer, maar basishygiëne.

⚖️ Genoemde wetgeving

Op LearnWize:EU AI Act ComplianceProbeer het gratis

Templates, checklists en interactieve oefeningen om je compliance op orde te krijgen.

Doe de gratis AI challenge