De governance-kloof van 2026: Microsoft's Cyber Pulse-rapport toont dat meer dan 80% van Fortune 500-bedrijven actief AI agents gebruikt. Tegelijkertijd blijkt uit Deloitte's State of AI 2026 dat slechts 1 op de 5 organisaties een volwassen model heeft voor governance van autonome AI agents. Die kloof is niet alleen een risico. Het is een tikkende tijdbom.
Een nieuw soort collega
Stel je voor: een medewerker die 24/7 beschikbaar is, nooit slaapt, toegang heeft tot al je bedrijfssystemen en zelfstandig beslissingen neemt. Geen hypothetisch scenario. Dit is wat AI agents vandaag al doen in duizenden organisaties wereldwijd.
AI agents zijn fundamenteel anders dan de chatbots en AI-assistenten waar we aan gewend zijn geraakt. Waar een chatbot wacht op instructies, neemt een agent initiatief. Een chatbot beantwoordt vragen. Een agent plant, handelt, raadpleegt data, en communiceert met andere agents om complexe taken uit te voeren.
De adoptie gaat razendsnel. Volgens Microsoft's Cyber Pulse-rapport gebruiken leidende sectoren als software en technologie (16%), manufacturing (13%), financiele instellingen (11%) en retail (9%) agents voor taken als het opstellen van voorstellen, het analyseren van financiele data, het triagen van security-alerts en het automatiseren van klantprocessen. En het bijzondere: het bouwen van agents is niet langer voorbehouden aan developers. Medewerkers in allerlei functies creeren en gebruiken agents met low-code en no-code tools.
Dat verandert alles.
Het governance-gat: groter dan je denkt
De snelheid waarmee organisaties AI agents adopteren staat in schril contrast met de snelheid waarmee ze governance opzetten. En dat gat wordt met de dag groter.
Shadow agents: de onzichtbare dreiging
Microsoft rapporteert dat 29% van werknemers al unsanctioned AI agents gebruikt voor werktaken. Niet met kwade opzet, maar simpelweg omdat het hun werk makkelijker maakt. Het probleem: deze agents opereren buiten het zicht van IT en security-teams, met alle risico's van dien.
Shadow IT kennen we al decennia. Maar shadow AI introduceert een compleet nieuwe risico-dimensie. Agents kunnen rechten overerven, gevoelige informatie raadplegen en output genereren op schaal. IBM's Cost of Data Breach Report laat zien dat shadow AI inmiddels verantwoordelijk is voor 20% van alle datalekken, met gemiddeld $670.000 hogere kosten per incident.
Organisaties worstelen intussen met vragen die basaler niet kunnen:
- Hoeveel agents draaien er eigenlijk in onze organisatie?
- Wie is verantwoordelijk voor welke agent?
- Welke data raken ze aan?
- Welke agents zijn goedgekeurd en welke niet?
Als je die vragen niet kunt beantwoorden, heb je geen governance. Je hebt hoop.
De CISO-paradox
Hier wordt het pas echt verontrustend. MachineLearningMastery beschrijft een paradox die door de hele sector speelt: de meeste Chief Information Security Officers uiten diepe zorgen over AI agent-risico's, maar slechts een handvol heeft volwassen waarborgen geimplementeerd.
De cijfers onderbouwen dat. Vectra AI schat dat 40% van enterprise applicaties eind 2026 autonome AI agents zal bevatten, terwijl slechts 6% van organisaties een geavanceerde AI-beveiligingsstrategie heeft. En het 2026 CISO AI Risk Report onthult dat 71% van organisaties zegt dat AI-tools toegang hebben tot kernsystemen als Salesforce en SAP, maar slechts 16% zegt dat die toegang effectief wordt beheerd.
Organisaties deployen agents sneller dan ze deze kunnen beveiligen.
Agents als insider threat
Palo Alto Networks waarschuwt voor een verschuiving die veel security-teams nog niet op het netvlies hebben: "De AI agent is een krachtige insider threat." Deze agents hebben geprivilegieerde, altijd-aan toegang. Ze zijn het meest waardevolle doelwit dat een aanvaller kan compromitteren. In plaats van mensen te targeten, zullen aanvallers zich richten op het overnemen van agents die al diep in de systemen zitten.
Het verschil met een menselijke insider? Een gecompromitteerde agent opereert op machinesnelheid. De schade die kan ontstaan voordat iemand het opmerkt, is exponentieel groter.
Wat zegt de EU AI Act over agents?
De EU AI Act is niet specifiek geschreven met AI agents in gedachten. De wet werd grotendeels ontworpen in een periode waarin AI-systemen nog voornamelijk passieve tools waren. Maar dat betekent niet dat agents buiten de reikwijdte vallen. Integendeel.
The Future Society publiceerde de eerste uitgebreide analyse van hoe AI agents worden gereguleerd onder de EU AI Act, met drie kernbevindingen:
Ten eerste: agents vallen onder zowel GPAI- als high-risk bepalingen. De meeste hedendaagse agents draaien op general-purpose AI-modellen die mogelijk systemisch risico met zich meebrengen. Afhankelijk van de specifieke toepassing kunnen agents ook als high-risk AI-systeem worden geclassificeerd. Agents die voor meerdere doeleinden worden ingezet, worden zelfs aangenomen high-risk te zijn, tenzij de aanbieder aantoonbaar voldoende voorzorgsmaatregelen treft.
Ten tweede: governance moet langs de hele waardeketen. Modelaanbieders moeten de fundamentele infrastructuur bouwen voor veilige agents. Systeemaanbieders passen deze aan voor specifieke contexten. En deployers, de organisaties die agents inzetten, moeten de regels naleven tijdens gebruik. Die gedeelde verantwoordelijkheid is cruciaal, maar ook complex.
Ten derde: vier governance-pijlers. Risicobeoordeling, transparantie-tools, technische deployment-controls en human oversight design. Binnen elk van deze pijlers identificeert het rapport specifieke eisen voor aanbieders en deployers.
Wanneer is een agent high-risk?
De praktische vraag voor organisaties: wanneer valt mijn AI agent onder de high-risk classificatie? Het antwoord is concreter dan je misschien verwacht.
Annex III van de AI Act somt de domeinen op: werkgelegenheid en HR-beslissingen, onderwijs, kredietscoring, rechtshandhaving, kritieke infrastructuur, en toegang tot essentiele diensten. Zet je een AI agent in die invloed heeft op wie er wordt aangenomen, wie een lening krijgt of wie toegang heeft tot een dienst? Dan is dat waarschijnlijk een high-risk systeem.
Kennedys Law wijst erop dat de Europese Commissie de mate van autonomie als relevante factor kan meewegen bij het bepalen van het risiconiveau (Art. 6). Hoe autonomer de agent, hoe hoger het risicoprofiel. En dat is precies wat agents onderscheidt van traditionele AI-tools.
De deadline voor conformiteitseisen voor high-risk AI-systemen: augustus 2026. Dat is over zes maanden.
Vijf dingen die organisaties nu moeten doen
Op basis van de onderzoeken en best practices, vijf concrete prioriteiten:
1. Creeer een Agent Registry
Je kunt niet beschermen wat je niet kunt zien. Microsoft's Cyber Pulse-rapport benadrukt de noodzaak van een centraal register als single source of truth: welke agents draaien er, wie is eigenaar, welke zijn goedgekeurd en welke niet? Dit is stap een, zonder uitzonderingen.
2. Pas Zero Trust toe op agents
Behandel AI agents zoals medewerkers of service accounts. Dat betekent: least privilege access (alleen de minimaal benodigde rechten), expliciete verificatie bij elke toegangsaanvraag, en het ontwerpprincipe dat compromittering altijd mogelijk is. Geen agent zou meer toegang moeten hebben dan strikt noodzakelijk. Punt.
3. Classificeer je agents onder de EU AI Act
Breng in kaart welke agents opereren in high-risk domeinen. Begin met een risicobeoordeling, werk aan documentatie en ontwerp human oversight. Dit is niet optioneel: de high-risk compliance-eisen treden in augustus 2026 in werking.
4. Investeer in observability
Real-time dashboards en telemetrie. Waar opereren je agents, met welke data, welk gedrag vertonen ze? Microsoft identificeert vijf capabilities: registry, access control, visualisatie, interoperabiliteit en security. Geen van deze is luxe. Het is hygiene.
5. Maak governance cross-functioneel
AI-governance kan niet uitsluitend bij IT of de CISO liggen. Het is een gedeelde verantwoordelijkheid van legal, compliance, HR, data science en de board. Deloitte bevestigt: organisaties waar senior leadership actief de AI-governance vormgeeft, realiseren significant meer bedrijfswaarde dan organisaties die het delegeren aan technische teams alleen.
Behandel AI-risico als enterprise-risico. Niet als IT-probleem.
De paradox die we moeten oplossen
Er is een fundamentele spanning in hoe we met AI agents omgaan. Aan de ene kant zijn ze ongelooflijk krachtig. Ze verhogen productiviteit, versnellen processen en kunnen taken uitvoeren die voorheen onmogelijk waren. Aan de andere kant introduceren ze risico's die we met bestaande governance-frameworks niet volledig kunnen adresseren.
De EU AI Act biedt een fundament, maar is niet het volledige antwoord. De wet gaat uit van relatief statische AI-systemen met vooraf bepaalde configuraties. AI agents zijn dynamisch, adaptief en opereren in ketens van interacties die moeilijk vooraf te voorspellen zijn.
Wat organisaties nodig hebben is niet alleen compliance met een wet, maar een fundamentele heroverweging van hoe ze omgaan met autonome systemen. Hoe geef je een "digitale medewerker" verantwoordelijkheden zonder de controle te verliezen? Hoe audit je beslissingen die op machinesnelheid worden genomen? Hoe voorkom je dat de tools die je organisatie efficienter maken, tegelijkertijd je grootste kwetsbaarheid worden?
Dit zijn geen vragen voor volgend jaar. Dit zijn vragen voor nu.