De Nederlandse gemeenten die fraudedetectie-algoritmen inzetten voor het bijstandsstelsel, de Belastingdienst die risicoprofilering gebruikt voor belastingcontroles, en de politiekorpsen die hotspot-analyse inzetten voor criminaliteitspreventie: allemaal zijn ze al jaren afhankelijk van AI-systemen die nu onder het striktste compliance-regime van de EU AI Act vallen. De publieke sector is niet alleen een van de grootste gebruikers van AI in Europa, het is ook de categorie waaraan de wet de meeste expliciete verplichtingen oplegt. Dat is geen toeval.
Het vertrouwen van burgers in de overheid is de afgelopen jaren hard geraakt door algoritmeschandalen. De toeslagenaffaire in Nederland, waarbij een fraudedetectie-algoritme systematisch ouders met een migratieachtergrond discrimineerde, heeft aangetoond wat er mis kan gaan wanneer AI-systemen zonder adequate governance in overheidsbesluitvorming worden ingebouwd. De EU AI Act is mede een reactie op dit soort incidenten, en de publieke sector betaalt de prijs voor decennia van onzorgvuldige AI-inkoop in de vorm van aanzienlijk zwaardere compliance-eisen dan het bedrijfsleven.
De tijdlijn die overheden nu moeten kennen
De AI Act trad formeel in werking op 1 augustus 2024 na publicatie in het EU-publicatieblad op 12 juli 2024, maar kent een gefaseerde toepassing die voor de publieke sector vier cruciale momenten heeft.
Vanaf 2 februari 2025 gelden de verboden op onaanvaardbare AI-praktijken en de AI-geletterdheidsplicht van artikel 4. Overheden die systemen gebruikten die nu verboden zijn, zoals sociale-scoringssystemen of ongerichte biometrische profilering, moesten voor die datum een exit-strategie hebben uitgevoerd. In de praktijk zijn niet alle overheden hier op tijd mee geweest, deels omdat de definitie van "sociale scoring" nog ruimte voor interpretatie laat.
Op 2 augustus 2025 worden de regels voor general purpose AI-modellen (GPAI) en de volledige governance-structuur van kracht, inclusief aanwijzing van nationale toezichthouders en de handhavingsbevoegdheden voor boetes. Dit is het moment waarop toezichthouders actief kunnen gaan handhaven. Voor overheden die GPAI-modellen deployen, zoals grote taalmodellen voor burgercommunicatie of documentverwerking, gelden dan transparantie-eisen.
Op 2 augustus 2026 treden de kernverplichtingen voor hoog-risico AI in werking. Dit is de zwaarste deadline voor de publieke sector, want vrijwel alle systemen waarmee overheden besluiten nemen over burgers, vallen onder de hoog-risico categorie van annex III. Vanaf die datum is een volledig Quality Management System, conformiteitsbeoordeling, registratie in de EU-database en een aantoonbare FRIA per systeem verplicht.
In augustus 2027 vervalt de overgangsregeling voor systemen die vóór augustus 2024 al op de markt waren. Bestaande systemen die nog niet aan de eisen voldoen, moeten dan volledig compliant zijn of buiten gebruik worden gesteld.
Wat telt als hoog-risico voor overheden
Annex III van de AI Act bevat de limitatieve lijst van hoog-risico toepassingen. Voor de publieke sector zijn met name relevant: biometrische identificatiesystemen, AI in kritieke infrastructuur zoals verkeers- en energiebeheer, systemen voor toelating tot onderwijs, systemen voor werkgelegenheid en personeelsselectie, essentiële publieke diensten (toeslagen, bijstand, ziektekostenverzekering), wetshandhaving inclusief predictive policing en recidiverisico-inschatting, migratie en grensbeheer, en rechtsbedeling.
Het praktische effect hiervan is dat vrijwel elke AI-toepassing waarbij een Nederlandse overheidsinstantie een besluit neemt dat rechtsgevolgen heeft voor een burger, als hoog-risico kwalificeert. De gemeente die een bijstandsaanvraag beoordeelt met behulp van een fraudedetectie-algoritme, de Belastingdienst die selecteert welke aangiftes worden gecontroleerd, de Immigratie en Naturalisatiedienst die risicoanalyses maakt van visumaanvragen: allemaal hoog-risico, allemaal onderworpen aan de volledige set verplichtingen van hoofdstuk III van de AI Act.
De twee rollen: provider versus deployer
Een van de meest over het hoofd geziene aspecten van de AI Act is dat een overheidsinstantie in twee fundamenteel verschillende rollen kan opereren, elk met eigen verplichtingen. Als provider brengt de overheid een AI-systeem op de markt of neemt deze in gebruik voor eigen rekening, inclusief zelfgebouwde systemen. Als deployer gebruikt de overheid een systeem dat door een derde partij is ontwikkeld en op de markt gebracht.
Deze rolverdeling heeft vergaande gevolgen voor de compliance-structuur. Een provider is verantwoordelijk voor de volledige technische documentatie, het risicobeheerssysteem, de conformiteitsbeoordeling en de CE-markering. Een deployer is verantwoordelijk voor correct gebruik overeenkomstig de gebruiksinstructies, menselijk toezicht, rapportage van incidenten aan de provider, en, als deployer van een hoog-risico systeem, voor de FRIA.
De complicatie: veel overheden zijn tegelijk provider en deployer. Ze kopen een extern systeem in, passen het aan voor hun specifieke gebruikscontext, en nemen het daarmee de facto over als provider. De AI Act voorziet in dit scenario: zodra een deployer "het doel van een AI-systeem van hoog risico zodanig wijzigt dat dit niet meer onder het toepassingsgebied valt van de conformiteitsbeoordeling," wordt de deployer provider. Overheden die SaaS-oplossingen inkopen en aanpassen voor hun eigen processen, lopen dit risico structureel.
De Fundamental Rights Impact Assessment
De FRIA is de verplichting die de meeste overheden op dit moment het minst hebben geïmplementeerd en die tegelijkertijd de meeste consequenties heeft voor de relatie met burgers. Artikel 27 verplicht publieke instanties die hoog-risico AI-systemen inzetten, om vóór ingebruikname een assessment uit te voeren dat de impact op grondrechten in kaart brengt.
Een FRIA beschrijft het systeem en het doel ervan, de betrokken populatie, de relevante grondrechten die kunnen worden aangetast (privacy, non-discriminatie, recht op eerlijk proces, sociale zekerheid), de waarschijnlijkheid en ernst van aantasting, de maatregelen die zijn genomen om risico's te mitigeren, en de mechanismen voor menselijk toezicht en correctie. Overheden moeten ook een samenvatting van de FRIA publiek beschikbaar stellen, wat directe transparantie naar burgers vereist.
De FRIA-generator biedt een gestructureerd startpunt voor overheidsorganisaties die dit proces voor het eerst doorlopen. Maar de FRIA is geen papieren oefening: toezichthouders zullen bij audits controleren of de bevindingen van de FRIA daadwerkelijk zijn omgezet in aanpassingen van het systeem of de werkprocessen. Een FRIA die concludeert dat er sprake is van discriminatierisico maar geen aanbevelingen bevat die zijn uitgevoerd, is juridisch kwetsbaar.
Inkoop als compliance-knelpunt
Veel overheidsorganisaties kopen AI-systemen in via aanbestedingsprocedures die zijn ontworpen voor conventionele software. Die aanpak is niet langer toereikend. De EU AI Act vereist dat deployers van hoog-risico systemen bewijs kunnen leveren dat de aanbieder aan de vereisten voldoet: een CE-markering of gelijkwaardig bewijs, toegang tot technische documentatie, contractuele garanties over updates en logging, en medewerking aan audits.
Praktisch betekent dit dat standaard inkoopcontracten moeten worden aangevuld met AI-specifieke clausules. De Europese Commissie heeft begin 2025 Model Contractual Clauses gepubliceerd (MCC-AI) in twee versies: een voor hoog-risico systemen en een lichtere versie voor overige AI-toepassingen. Aanbestedende overheidsorganisaties kunnen deze als basis gebruiken, maar moeten ze aanpassen aan hun specifieke gebruikscontext en juridisch laten toetsen.
Een bijkomend probleem is expertiseschaarste: veel overheden hebben niet de interne capaciteit om AI-contracten en technische documentatie adequaat te beoordelen. Nationale handreikingen vanuit BZK en de Rijksdienst voor Identiteitsgegevens zijn voor sommige domeinen beschikbaar, maar de implementatie in aanbestedingspraktijken loopt achter.
Verboden praktijken die al gelden
Sinds 2 februari 2025 zijn specifieke AI-praktijken verboden, ongeacht de context. Voor de publieke sector zijn relevant: sociale-scoringssystemen die burgers rangschikken op basis van gedrag in niet-gerelateerde domeinen, biometrische categorisering op basis van gevoelige kenmerken als etniciteit of politieke overtuiging, ongerichte gezichtsherkenning via scraping van bewakingscamera's of internet, en emotieherkenning op de werkplek of in het onderwijs.
Real-time biometrische identificatie in de openbare ruimte door politie is in principe verboden, maar kent drie nauwe uitzonderingen: zoeken naar een vermist kind, voorkoming van een aanslag of dreigende inzet van massavernietigingswapens, en opsporing van een verdachte van een ernstig strafbaar feit. Elke inzet in deze uitzonderingen vereist voorafgaande rechterlijke of administratieve toestemming, tenzij dringende noodzaak dit verhindert, in welk geval toestemming achteraf zo snel mogelijk moet worden verkregen.
Samenloop met GDPR en andere regelgeving
De AI Act werkt bovenop de GDPR, niet in plaats ervan. Voor overheidsinstanties die persoonsgegevens verwerken via AI-systemen, geldt de dubbele plicht van een DPIA (artikel 35 GDPR) en een FRIA (artikel 27 AI Act). Beide assessments overlappen gedeeltelijk maar zijn niet identiek: de DPIA focust op privacyrisico's, de FRIA heeft een bredere scope inclusief non-discriminatie, recht op eerlijk proces en sociale zekerheid.
In de praktijk is het efficiënt om DPIA en FRIA parallel of geïntegreerd uit te voeren. Sommige overheden doen dit al voor hun meest risicovolle systemen; voor de meerderheid is het een nieuw werkproces dat moet worden ingebed in de projectcyclus van AI-implementatie. Een geïntegreerde aanpak reduceert dubbel werk en zorgt voor consistente conclusies.
Wat nu te doen
De meest urgente actie voor overheidsorganisaties is een volledige inventarisatie van alle AI-systemen die worden gebruikt, inclusief systemen die via SaaS of cloud worden afgenomen en die medewerkers zelf gebruiken zonder formele IT-aanbesteding (shadow AI). Koppel elke toepassing aan een risicocategorie op basis van annex III en annex I van de AI Act, en bepaal per systeem of de organisatie als provider of deployer optreedt.
Prioriteer de systemen die direct invloed hebben op beslissingen over burgers, want dat zijn de systemen waarvoor de 2026-deadline het meest urgentst is. Voer voor die systemen zo snel mogelijk een FRIA uit, gebruik de bevindingen om aanpassingen te plannen, en leg het traject vast als bewijs van due diligence.
Zorg dat inkoopcontracten voor nieuwe AI-aankopen direct AI Act-compliant zijn. Gebruik de MCC-AI als basis en eis van leveranciers technische documentatie, toegang tot logging, en medewerking aan audits. Train inkoopteams in de minimale kenniseisen van artikel 4, zodat zij in aanbestedingsdocumenten en -gesprekken de juiste vragen kunnen stellen.
En gebruik de nationale AI-sandbox zodra die operationeel is. Artikel 57 verplicht lidstaten tot een operationele sandbox uiterlijk augustus 2026. Nederland heeft al een uitgewerkt vormvoorstel gepubliceerd door de Autoriteit Persoonsgegevens en de Rijksinspectie Digitale Infrastructuur. Voor overheden die willen testen hoe een nieuw AI-systeem zich verhoudt tot de vereisten, is de sandbox een unieke mogelijkheid om in directe dialoog met toezichthouders tot duidelijkheid te komen zonder het risico van handhaving.
De publieke sector heeft een bijzondere verantwoordelijkheid bij AI-gebruik: overheden beslissen over uitkeringen, vergunningen, vrijheidsbeperkingen en andere zaken die fundamentele impact hebben op levens van burgers. De EU AI Act maakt die verantwoordelijkheid juridisch afdwingbaar. Organisaties die nu investeren in governance, FRIA-processen en compliant inkoop, positioneren zichzelf voor een toezichtsklimaat dat na augustus 2025 alleen maar strenger wordt. Wacht niet op de deadline: de analyse, de assessments en de contractaanpassingen vergen tijd die er nu nog is maar in 2026 niet meer.
De rol van de rechter bij algoritmische overheidsbesluiten
De juridische ontwikkelingen rondom algoritmische besluiten zijn sneller gegaan dan de beleidsmatige aanpassing van overheden. De Raad van State heeft in meerdere uitspraken in 2023 en 2024 bevestigd dat een overheidsorgaan een besluit niet kan motiveren door uitsluitend te verwijzen naar de uitkomst van een algoritme. Het bestuursrecht vereist dat een ambtenaar de uitkomst begrijpt, zelfstandig heeft beoordeeld, en het besluit in eigen woorden kan motiveren op basis van de relevante wettelijke kaders.
Die rechtsontwikkeling loopt parallel aan artikel 14 van de AI Act, dat menselijk toezicht voor hoog-risico systemen verplicht. Maar de rechterlijke invulling gaat verder dan de minimumeis van de wet: het gaat niet alleen om de technische mogelijkheid van menselijk ingrijpen, maar om daadwerkelijk begrip en zelfstandige beoordeling. Een gemeente die ambtenaren opleidt om AI-aanbevelingen te rubber-stampen heeft weliswaar een menselijke handtekening op het besluit gezet, maar voldoet niet aan de transparantievereisten van het bestuursrecht.
De samenloop van de AI Act met de Algemene wet bestuursrecht, de Wet open overheid en het EU Handvest van de Grondrechten creëert voor de publieke sector een governance-verplichting die de AI Act overtreft. Overheden moeten niet alleen technisch compliant zijn; ze moeten ook bestuurlijk transparant zijn over welke AI-systemen zij gebruiken, hoe die werken, en hoe zij de uitkomsten integreren in hun besluitvormingsproces.
Algoritmisch register als transparantie-instrument
Verschillende Nederlandse gemeenten en uitvoeringsorganisaties werken met een algoritmisch register: een publieke inventarisatie van de AI-systemen die zij inzetten, aangevuld met informatie over het doel, de werking, de risico's en de governance-maatregelen. Amsterdam, Utrecht en de Rijksoverheid via algoritmeregister.overheid.nl hebben hierin stappen gezet.
Zo'n register is geen verplichting uit de AI Act zelf, maar het sluit aan bij de transparantievereisten van artikel 13 (transparantie naar gebruikers) en de publieke samenvatting die artikel 27 voor FRIA's vereist. Bovendien heeft het een intern nut: organisaties die een register bijhouden, ontdekken systemen die bij geen enkele afdeling formeel geregistreerd stonden maar die medewerkers dagelijks gebruiken voor beslissingen over burgers.
Voor de AI Act-compliance is het algoritmisch register een startpunt voor de inventarisatiefase die aan alle verdere compliance-stappen voorafgaat. Zonder een compleet beeld van welke systemen er zijn, zijn risicoklassificaties, FRIA's en conformiteitsbeoordelingen onvolledig per definitie.
Samenwerking met toezichthouders
Een bijzonderheid van de AI Act voor de publieke sector is dat overheidsorganisaties tegelijk subject van toezicht zijn en soms zelf toezichthouder. Een gemeente die toezicht houdt op bouwvergunningen met behulp van een AI-systeem dat aanvragen beoordeelt, is deployer van een hoog-risico systeem en is tegelijk de instantie die beslissingen neemt in het publiek belang.
De Rijksinspectie Digitale Infrastructuur (RDI) is aangewezen als primaire markttoezichthouder voor de AI Act in Nederland. De Autoriteit Persoonsgegevens behoudt haar rol voor de privacydimensie van AI-systemen. Sectorale toezichthouders zoals de NZa (zorg), DNB/AFM (financiële sector) en de Inspectie van het Onderwijs hebben aanvullende bevoegdheden voor hun specifieke domeinen.
Voor overheidsorganisaties die AI inzetten, is het verstandig om vroegtijdig contact te zoeken met de relevante toezichthouder, met name voor systemen die in interpretatie-grensgebieden vallen. De AI-sandbox biedt een geformaliseerd mechanisme voor die dialoog. Buiten de sandbox is proactief contact met de toezichthouder geen garantie voor compliance, maar het is een indicatie van goede trouw die bij latere handhaving in de beoordeling meegt.