Responsible AI Platform

Belangrijkste ontwikkelingen rondom de EU AI Act in 2025 en vooruitblik op 2026

··20 min leestijd
Engelse versie niet beschikbaar

Jaaroverzicht 2025 en vooruitblik op het cruciale implementatiejaar 2026

In 2025 is de EU AI Act in de implementatiefase beland. Na de formele goedkeuring midden 2024 is het afgelopen jaar gekenmerkt door belangrijke stappen in werkingtreding, politieke discussies, nationale voorbereidingen en reacties vanuit de technologiebranche. In deze blog geven we een holistisch overzicht van de ontwikkelingen in 2025 en kijken we vooruit naar wat er in 2026 te verwachten valt. We bespreken de gefaseerde invoering van de wet, de beslissende politieke mijlpalen, de implementatie en reacties in lidstaten (waaronder Nederland), de standpunten van het bedrijfsleven, zorgen rond de uitvoering, en de komende deadlines en richtsnoeren.

Gefaseerde invoering: welke regels golden al in 2025?

De AI Act is op 1 augustus 2024 in werking getreden, maar de verplichtingen worden stapsgewijs van kracht om stakeholders de tijd te geven zich aan te passen. In februari 2025 traden de eerste bepalingen in werking, met name het verbod op AI-systemen met onaanvaardbaar risico. Dit betekent dat vanaf 2 februari 2025 praktijken zoals sociale scoring door overheden of andere AI-toepassingen die fundamentele rechten ernstig schenden, expliciet verboden zijn. Deze directe ban illustreert de 'risk-based' aanpak van de wet: toepassingen met onacceptabele risico's worden niet getolereerd.

Per 2 augustus 2025 zijn vervolgens nieuwe eisen van kracht geworden voor algemene AI-modellen – de zogeheten General Purpose AI (GPAI) of foundation models. Leveranciers van dergelijke brede AI-modellen (bijvoorbeeld grote taalmodellen of generatieve AI-systemen) moeten sindsdien aan strengere eisen voldoen. Concreet gaat het om transparantieverplichtingen en technische voorzorgsmaatregelen: ze moeten uitgebreide technische documentatie opstellen, zorgen dat hun modellen geen schendingen van auteursrechten veroorzaken en samenvattingen verstrekken van de gebruikte trainingsdata. Ook dienen ze hun AI-modellen vóór lancering te testen op bias, toxische content en robuustheid.

Voor de meest geavanceerde modellen met mogelijk "systemisch risico" gelden aanvullende verplichtingen, zoals het uitvoeren van risico-evaluaties, adversarial testing, melden van ernstige incidenten aan de Europese Commissie en informatie verstrekken over het energieverbruik van het model. Deze verplichtingen traden formeel per augustus 2025 in werking, al heeft de wet ingebouwd dat handhaving en sancties voor deze onderdelen pas vanaf augustus 2026 ingaan. Hiermee is een soort grace period gecreëerd: modelontwikkelaars moeten nu al voldoen aan de regels, maar toezichthouders mogen tot 2026 coulance betrachten.

Tussenconclusie: In 2025 zijn dus twee belangrijke onderdelen gestart: (1) het verbod op bepaalde AI-toepassingen (zoals sociale kredietsystemen) om burgers te beschermen, en (2) de eerste zorgplichten voor ontwikkelaars van generieke AI-modellen om transparantie en veiligheid te waarborgen. Dit alles gebeurt in lijn met het gefaseerde schema dat bij de goedkeuring is afgesproken: naarmate het risico van AI-toepassingen hoger is, gaan de bijbehorende verplichtingen later in, met volledige toepassing van de AI Act gepland tegen 2027.

Politieke mijlpalen en onderhandelingen in 2025

Hoewel de formele triloogonderhandelingen al eind 2023 tot een akkoord leidden (op 9 december 2023 bereikten Europees Parlement en Raad een compromis over de definitieve tekst) en de wet in maart 2024 door het Parlement en in mei 2024 door de Raad werd goedgekeurd, heeft 2025 niet stilgestaan op politiek vlak. Integendeel, het jaar zag belangrijke discussies over de implementatie en mogelijke bijsturing van de AI Act.

Weerstand en roep om pauze

Vanaf het voorjaar 2025 klonk er kritiek vanuit het bedrijfsleven en sommige politici dat de invoering te snel en te complex zou zijn. In juni 2025 riep de Europese tech-lobby (CCIA Europe, met leden als Google, Meta en Apple) op tot een pauze in de implementatie van de AI Act. Ze waarschuwden dat een overhaaste uitrol Europa's AI-ambities kon schaden.

Kort daarop, begin juli 2025, publiceerde een groep van 45 grote Europese bedrijven – waaronder namen uit diverse sectoren zoals Airbus, ASML, Lufthansa, Mercedes-Benz en Siemens – een open brief aan de Europese Commissie met het verzoek om "de klok twee jaar stil te zetten" voor de zwaarste verplichtingen. Hierin uitten zij zorgen over onduidelijkheid en hoge nalevingskosten. Ook wezen zij op het ontbreken van belangrijke uitvoeringsrichtsnoeren op dat moment: de AI Code of Practice die eigenlijk al op 2 mei 2025 gereed had moeten zijn, was toen nog niet gepubliceerd. De bedrijven vroegen om uitstel tot twee jaar voor zowel de regels rond hoge-risico AI-systemen (gepland voor 2026) als de nieuwe regels voor generieke AI-modellen (per 2025), om eerst de benodigde richtsnoeren en standaarden af te ronden.

Enkele politieke leiders steunden deze roep. Zo noemde de Zweedse premier Ulf Kristersson de EU-AI regels "verwarrend" en pleitte ook hij in juni 2025 voor een pauze. Deze kritiek kwam op een gevoelig moment: de EU wil vooroplopen met AI-regulering, maar moet ook rekening houden met concurrentiepositie en samenwerking met partners als de VS. In de tweede helft van 2025 kwam daar druk vanuit de Verenigde Staten bij: de nieuwe Amerikaanse regering (president Trump, vanaf 2025) zette de EU onder druk om "te strenge" onderdelen te heroverwegen, met dreiging van handelsspanningen.

Reactie van de Europese Commissie

De Europese Commissie hield in eerste instantie vast aan het geplande tijdpad. Halverwege 2025 liet een Commissie-woordvoerder weten dat er geen algemene pauze zou komen en dat de deadlines (zoals 2 augustus 2025) ongewijzigd bleven. Eurocommissaris (digitaal portefeuillehouder) Henna Virkkunen benadrukte in het Europees Parlement dat ze de AI Act "op een innovatievriendelijke manier" wil implementeren, maar geen tijdelijke stop wilde overwegen.

Wel erkende de Commissie dat flexibiliteit mogelijk was: men zou gerichte verlaging van tempo overwegen "als cruciale standaarden of richtsnoeren niet op tijd klaar zijn". Inderdaad bleek de Commissie bereid de publicatie van de uitvoeringsrichtlijnen wat op te schuiven. De genoemde Code of Practice voor GPAI-modellen, bedoeld als gids voor AI-ontwikkelaars, liep een paar maanden vertraging op en verscheen uiteindelijk op 10 juli 2025 in plaats van mei. Ook kondigde de Commissie aan dat de European AI Board (het nieuwe EU-brede samenwerkingsorgaan van toezichthouders) zou beslissen hoe snel deze gedragscode zou worden ingezet – men overwoog implementatie tegen eind 2025, een half jaar later dan oorspronkelijk gepland.

Aanpassingen en "simplificatie"-voorstel

Tegen het einde van 2025 gingen binnen de Commissie stemmen op voor gerichte aanpassingen van de AI Act, mede in het kader van bredere digitale afspraken met de VS. In november 2025 berichtte de Financial Times dat de Commissie een "simplificatieprocedure" voorbereidde om onderdelen van de AI-verordening te versoepelen of uit te stellen.

Onder deze plannen zou bijvoorbeeld handhaving bij overtredingen van hoge-risico AI-systemen minder streng en direct worden: bedrijven die de regels schenden zouden eerst één jaar de tijd krijgen om verbeteringen door te voeren voordat sancties volgen. Eveneens werd genoemd dat boetes voor schending van transparantieverplichtingen pas vanaf 2027 opgelegd zouden worden in plaats van direct in 2026. Opvallend was ook het idee om de toezichtstructuur te wijzigen: één centrale Europese toezichthouder zou een deel van de handhaving op zich nemen. Dit zou een breuk betekenen met het huidige model waarin elke lidstaat een eigen onafhankelijke AI-toezichthouder aanwijst.

Politieke balanceeract

Kortom, 2025 was politiek gezien allesbehalve rustig: terwijl de AI Act formeel al in uitvoering ging, woedde er een debat over het tempo en de zwaarte van die uitvoering. De Europese Commissie balanceerde tussen vasthouden aan de "eerste ter wereld" AI-regels en het adresseren van zorgen dat de EU zichzelf zou benadelen ten opzichte van andere regio's. Concrete aanpassingen lagen eind 2025 nog niet vast – het was toen duidelijk dat verdere onderhandelingen in 2026 zouden bepalen of, en hoe, de AI Act in details bijgestuurd wordt. De Commissie stelde wel gerust dat men volledig achter de doelen van de AI Act blijft staan, ook als er pragmatische vertragingen of vereenvoudigingen komen.

Reacties vanuit lidstaten en nationale implementatie (focus op Nederland)

De AI Act is een EU-verordening en geldt rechtstreeks in alle lidstaten, maar landen moeten praktische voorbereidingen treffen: nationale toezichthouders aanwijzen, handhavingsmechanismen inrichten en mogelijke aanvullende regelgeving maken voor zaken als sancties. Volgens de wet moesten alle lidstaten uiterlijk augustus 2025 hun bevoegde autoriteiten voor de AI Act hebben aangewezen en bekendgemaakt, én regels voor nationale boetes en straffen hebben vastgesteld en aan Brussel gemeld. Dit leidde in veel landen tot discussies over wie die toezichthouder zou worden en hoe men de taken zou verdelen.

Nederlandse voorbereiding en toezicht

In Nederland is al vroeg duidelijk geworden dat de Autoriteit Persoonsgegevens (AP) een centrale rol zal spelen in het toezicht op AI. De AI Act vereist toezicht op zowel naleving van technische eisen als bescherming van grondrechten. Nederland kende na het toeslagenaffaire-debacle al een roep om scherper toezicht op algoritmes. De AP heeft in 2024 samen met de Rijksinspectie Digitale Infrastructuur (RDI) – de toezichthouder op digitale productveiligheid – bij de regering aangedrongen op duidelijke taakverdeling voor AI-toezicht.

Hoewel formeel in 2025 nog besloten moest worden, lag het voor de hand dat de AP de primaire AI-toezichthouder wordt. De AP bereidde zich hierop voor en ontving in 2025 extra budget om capaciteit op te bouwen. (Wel waarschuwde de privacywaakhond dat dit "extra" budget feitelijk ontoereikend was, gezien de omvang van het nieuwe toezicht.) Een eventueel EU-plan om een centraal Europees toezichtorgaan te introduceren werd in Nederland met argusogen bekeken, omdat dit de rol van de AP weer zou kunnen marginaliseren.

Tegelijk zette Nederland stappen om overheidsgebruik van AI transparanter te maken. De Autoriteit Persoonsgegevens pleitte in juli 2025 voor een verplichte algoritmeregistratie voor álle overheidsinstanties. Volgens de AP lopen Nederlandse overheden achter met het bijhouden en melden van hun AI-systemen. De toezichthouder betoogde dat dergelijke algoritmeregisters nodig zijn naast de Europese databank die onder de AI Act wordt opgezet voor hoog-risico AI-systemen. Dit pleidooi resulteerde in verdere aandacht voor het nationale Algorithm Register – een platform waar organisaties informatie over hun algoritmes kunnen delen.

Nederland had al een voortrekkersrol met het opzetten van een Algorithm Register (Algoritmes Register) in de overheidscontext. In augustus 2025, direct na inwerkingtreding van de GPAI-regels, kondigde het ministerie van Digitale Zaken nieuwe hulpmiddelen aan om organisaties te helpen voldoen aan de AI Act. Zo zijn via het algoritmeregister praktische tools beschikbaar gesteld, waaronder een gids om te bepalen of een technologie onder de AI-definitie valt, een factsheet voor bestuurders in de publieke sector over de AI Act, en materiaal om AI-literacy te bevorderen. Ook technisch werd het register verbeterd (bijv. met exporteerbare checklists voor vereisten) om compliance gemakkelijker te maken. Deze stappen tonen aan dat Nederland inzet op kennisdeling en ondersteuning bij de implementatie van de AI Act, naast het formeel aanwijzen van toezichthouders.

De algemene houding van Nederland tegenover de AI Act is positief-kritisch te noemen. Bij de inwerkingtreding in augustus 2024 spraken minister Micky Adriaansens (EZK) en staatssecretaris Alexandra van Huffelen (Digitalisering) hun steun uit voor de EU-regels, benadrukkend dat ze de juiste balans bieden tussen kansen en risico's van AI. Nederland omarmt de economische potentie van AI, maar wil ook waarborgen dat AI-systemen betrouwbaar en toetsbaar zijn. Die lijn zet zich in 2025 voort: meedenken over uitvoerbaarheid (vandaar steun voor eventuele versimpeling), maar ook investerend in een sterke handhavingsstructuur nationaal.

Andere lidstaten

Andere lidstaten hebben vergelijkbare processen doorgemaakt. Veel landen koppelen AI-toezicht aan bestaande autoriteiten (bijv. data-autoriteiten of markttoezichthouders) en stellen interdisciplinaire teams samen. In Duitsland bijvoorbeeld wordt gesproken over een AI-toezichthouder binnen de Bundesnetzagentur, en in Frankrijk zal de CNIL (gegevensbeschermingsautoriteit) een belangrijke rol spelen. De lidstaten wisselen via de nieuwe Europese AI Board onderling informatie uit om consistente toepassing te bevorderen. Ook heeft de Europese Commissie in 2025 een European AI Office opgericht dat de nationale autoriteiten moet ondersteunen en gezamenlijke onderzoeken coördineren. Dit AI Office, operationeel vanaf 2024/2025, is vergelijkbaar met hoe de Europese Data Protection Board functioneert onder de GDPR.

Reacties van het bedrijfsleven en techsector in 2025

De technologiesector heeft in 2025 nadrukkelijk van zich laten horen over de AI Act. Zoals hierboven beschreven, hebben grote Europese en internationale bedrijven aangedrongen op een langzamere of aangepaste implementatie, uit vrees voor verlies van innovatievermogen en concurrentiekracht. Deze zorgen kwamen voort uit de complexiteit van de regelgeving en onzekerheid over praktische invulling.

Een enquête van Amazon Web Services onder Europese bedrijven gaf bijvoorbeeld aan dat meer dan twee derde van de bedrijven moeite heeft om hun verantwoordelijkheden onder de AI Act te begrijpen. Er was onduidelijkheid over vragen als: Valt mijn AI-tool onder "hoog risico"? Ben ik een aanbieder of slechts gebruiker? Hoe bewijs ik compliance? Veel ondernemingen – met name startups en het MKB – vrezen voor een zware administratieve last voordat ze AI-toepassingen op de markt kunnen brengen.

Constructieve samenwerking via gedragscodes

Tegelijk toonde het bedrijfsleven zich ook constructief. Toen duidelijk werd dat de basisregels zouden doorgaan, hebben diverse grote AI-aanbieders samengewerkt met de EU aan zelfregulering via een Gedragscode. In juli 2025 presenteerde de Commissie de General Purpose AI Code of Practice, een vrijwillige gedragscode die ontwikkelaars helpt te voldoen aan de AI Act-verplichtingen rondom transparantie, veiligheid en copyright.

Deze code is in een multi-stakeholder proces tot stand gekomen en afgestemd met de AI Act. Belangrijke spelers zoals Google, Microsoft, IBM, OpenAI, Anthropic, Amazon en Europese AI-bedrijven (bv. Mistral AI, Aleph Alpha) hebben zich meteen als ondertekenaars aangesloten. Door de code na te leven, kunnen zij aantonen dat ze compliant zijn, wat de bewijslast verlicht en voor meer juridische zekerheid zorgt. Dit initiatief laat zien dat de sector bereid is zelf alvast stappen te zetten richting verantwoorde AI, zelfs voordat alle wettelijke verplichtingen handhaafbaar zijn.

Startups en open source

Naast de grote spelers heeft ook de Europese startup-scene van zich laten horen. Sommige AI-startups vrezen dat zware verplichtingen hen disproportioneel raken en riepen op tot maatwerk of vrijstellingen. De AI Act bevat weliswaar versoepelingen voor onderzoeksactiviteiten en open-source componenten (die grotendeels uitgezonderd zijn van compliance-eisen), maar voor commerciële startups blijft het een uitdaging. Brancheorganisaties benadrukten dat de EU het innovatieve klimaat niet moet smoren en drongen aan op duidelijke standaarden en sandboxes om te experimenteren zonder direct handhavingsrisico.

Sectorspecifieke voorbereiding

In de gevoelige sectoren – zoals HR, finance en gezondheidszorg – bereiden bedrijven zich in 2025 intensief voor op de komende high-risk verplichtingen. Grote werkgevers hebben hun HR-algoritmen onder de loep genomen, wetende dat o.a. recruitment- en beoordelingssystemen straks als hoog risico geclassificeerd zijn. Er is een begin gemaakt met impact assessments en het opzetten van interne AI-governance structuren, ingegeven door de boetes die bij niet-naleving kunnen oplopen tot 6 à 7% van de wereldwijde omzet.

Samengevat reageerde de techsector in 2025 langs twee sporen: kritisch waar nodig – met lobbybrieven en publieke waarschuwingen voor onduidelijkheid – maar ook proactief en meedenkend via vrijwillige codes en voorbereiding op compliance. Deze duale houding heeft invloed gehad op de politieke discussie (er kwam immers ruimte voor gefaseerde handhaving), en zal ook in 2026 belangrijk blijven.

Uitdagingen bij implementatie en interpretatie

Een centraal thema in 2025 was de uitleg en praktische invulling van de AI Act. De regelgeving is zeer uitgebreid en nieuw, wat leidt tot interpretatievragen. Enkele prominente aandachtspunten en zorgen:

Definitie van AI en reikwijdte

Wat valt er precies onder een "AI-systeem" volgens de wet? De definitie is bewust technologieneutraal en breed geformuleerd, maar dit veroorzaakt twijfel bij ontwikkelaars of een bepaald software-algoritme onder de AI Act verplichtingen valt. Om hierbij te helpen, ontwikkelde Nederland o.a. een beslisgids (zie Algorithm Register tools). De Europese Commissie heeft in de loop van 2025 ook richtsnoeren gepubliceerd om key concepts te verduidelijken. Zo verschenen op 18 juli 2025 guidelines over de reikwijdte van verplichtingen voor GPAI-aanbieders, die in heldere taal uitleggen welke modellen en gebruikssituaties onder de nieuwe regels vallen.

Samenloop met bestaande wetgeving

Bedrijven en juristen worstelden met hoe de AI Act zich verhoudt tot bestaande regels als de GDPR (privacy) of productveiligheidsrichtlijnen. Er is bijvoorbeeld discussie of bepaalde AI-besluiten onder zowel de AI Act als de GDPR profieleringverboden vallen. De Europese Commissie heeft aangegeven oog te hebben voor consistentie in de digitale regelboeken en werkt aan een "versimpeling" die mogelijk overlappingen wegneemt. Ook zijn initiatieven gestart om AI-act verplichtingen te integreren met standaardisatie: er worden technische normen ontwikkeld (via CEN/CENELEC en ISO) zodat producenten kunnen aantonen dat hun AI "state of the art" veilig is – maar in 2025 waren deze normen nog in de maak, wat onzekerheid gaf voor fabrikanten.

Toezichtscapaciteit

Zowel op EU-niveau als in lidstaten leeft zorg of de toezichthouders voldoende expertise en menskracht hebben om de AI Act te handhaven. Nationale autoriteiten zoals de AP zijn hun AI-teams aan het uitbreiden, maar erkennen dat het toezicht op AI-systemen complex is (vanwege technische inhoud en nodig begrip van context). De AI Act voorziet in een European AI Board die consistentie moet bewaken, maar hoe effectief deze zal zijn moet blijken. Eind 2025 waarschuwden sommige waakhonden al dat zonder voldoende middelen de mooie papieren wet een tijger zonder tanden kan worden.

Internationale context en "Brussels Effect"

De AI Act is veel strenger dan bijvoorbeeld de huidige aanpak in de VS (vrijwillige AI-principes) en de flexibele richtlijnen in Azië. Een zorg was of de EU niet té veel voor de troepen uit loopt en Europese bedrijven op achterstand zet. Tegelijk hopen Europese beleidsmakers op een "Brussels Effect" waarbij anderen onze regels overnemen. In 2025 bleek echter dat grote economieën hun eigen weg gaan: de VS zette juist in op minder regels onder Trump, het VK volgde een pro-innovatie pad, en alleen enkele landen als Canada, Brazilië en Peru toonden interesse in soortgelijke AI-wetgeving. Dit beperkte geopolitieke draagvlak riep vragen op over de uitvoerbaarheid: als AI-systemen wereldwijd ontwikkeld worden, hoe voorkomt de EU dat regels omzeild worden via andere jurisdicties? Deze discussie blijft spelen en kan in 2026 leiden tot intensiever diplomatiek overleg of samenwerking in fora als de G7 en OECD om tot meer gemeenschappelijke AI-principes te komen.

Gebruik van AI door overheden

Naast bedrijven zijn ook overheidsorganisaties onderwerp van de AI Act (bv. bij inzet van AI in politie, justitie of sociale diensten). Er zijn zorgen geuit door burgerrechtenorganisaties over hoe overheden de wet gaan interpreteren. Bijvoorbeeld: de Act verbiedt realtime biometrische identificatie in openbare ruimtes, maar met uitzonderingen voor opsporing. Waar ligt de grens? In Nederland waarschuwde de AP in 2025 voor de opkomst van AI-systemen die emoties herkennen en riep op tot behoedzaamheid bij inzet daarvan. Dit laat zien dat de implementatie niet alleen een technische kwestie is, maar ook ethische en juridische interpretatie vergt. De Europese Commissie en AI Board zullen hierover naar verwachting nog aanvullende guidance publiceren, en toezichthouders zullen best practices moeten uitwisselen.

Lessons learned

Kortom, 2025 was een jaar van leren en duiden: zowel beleidsmakers, bedrijven als toezichthouders probeerden grip te krijgen op de nieuwe AI-regels. Er is aanzienlijke vooruitgang geboekt in het concretiseren van verplichtingen (via codes, guidelines, etc.), maar er blijven aandachtspunten zoals voldoende duidelijkheid en capaciteit. Deze lessons learned in 2025 vormen de opmaat naar een cruciaal 2026, waarin theorie echt in praktijk gebracht moet worden.

Vooruitblik op 2026: deadlines en volgende stappen

Het jaar 2026 wordt beslissend voor de daadwerkelijke toepassing van de AI Act. Een aantal grote mijlpalen staat op de agenda:

Februari 2026 – Nadere richtsnoeren

Uiterlijk 2 februari 2026 moet de Europese Commissie met extra richtsnoeren komen over risicobeheer en monitoring (specifiek over artikel 6 van de AI Act). Deze guidelines zullen bijvoorbeeld verduidelijken hoe AI-leveranciers hun post-market monitoring (het volgen van AI-prestaties na introductie) praktisch moeten invullen. Dit is belangrijk om zekerheid te geven vóór de high-risk verplichtingen van kracht worden.

Augustus 2026 – Hoog-risico AI verplichtingen van kracht

2 augustus 2026 is de datum waarop het gros van de AI Act verplichtingen gaat gelden. Vanaf dat moment moeten alle hoog-risico AI-systemen die nieuw op de markt komen voldoen aan de uitgebreide eisen: denk aan conformiteitsbeoordelingen, risicomanagementsystemen, transparantie richting gebruikers en menselijke toezichtmaatregelen. Ook de transparantieverplichtingen voor beperkte risico AI-systemen (zoals het labelen van deepfakes of melden dat men met een chatbot te maken heeft) zullen dan gaan gelden. Bedrijven die AI-toepassingen in bijvoorbeeld werving & selectie, kredietverstrekking, onderwijs of publieke dienstverlening gebruiken, moeten per deze datum volledig compliant zijn.

Praktisch betekent dit dat 2026 in het teken zal staan van audits en implementatieprojecten binnen organisaties om voor de deadline alles op orde te hebben.

Augustus 2026 – Handhaving en bestaande systemen

Vanaf augustus 2026 krijgen toezichthouders ook formeel de bevoegdheid om te handhaven op de GPAI-regels die al in 2025 golden. Daarnaast start een overgangsregeling: bestaande AI-systemen die vóór inwerkingtreding al in gebruik waren, vallen ook onder de wet als ze na 2 augustus 2026 nog significant worden gewijzigd. Dit voorkomt dat men oude AI-systemen oneindig door laat draaien om onder de regels uit te komen. Leveranciers en gebruikers van dergelijke legacy AI doen er goed aan 2026 te benutten om updates uit te voeren zodat deze systemen compliant zijn, of plannen te maken voor vervanging.

Nationale AI-sandboxes operationeel

Lidstaten moeten per 2 augustus 2026 ten minste één AI-proeftuin (regulatory sandbox) hebben ingericht. Deze sandboxes bieden een gecontroleerde omgeving waar AI-ontwikkelaars innovatieve systemen kunnen testen in overleg met toezichthouders, zonder meteen aan alle strenge regels te hoeven voldoen. In 2025 zijn veel landen al begonnen met de voorbereidingen hiervoor. In Nederland is bijvoorbeeld de Dutch AI Coalitie betrokken bij het verkennen van sandbox-modellen. In 2026 zullen deze sandboxes operationeel worden, wat een belangrijk leermoment kan zijn om de praktische hanteerbaarheid van de wet te toetsen en waar nodig bij te sturen.

Mogelijke bijstelling van tijdlijnen

Zoals besproken overwoog de Commissie eind 2025 een gerichte vertraging voor sommige onderdelen (bijv. high-risk verplichtingen). Mocht dit plan in 2026 politiek draagvlak krijgen, dan zou dat kunnen betekenen dat bepaalde onderdelen pas in augustus 2027 van kracht worden i.p.v. 2026. Het oog zal met name gericht zijn op de eerste helft van 2026: onder het inkomende EU-voorzitterschap zal besproken worden of de "simplificatie"-voorstellen worden aangenomen. Op 19 november 2025 stond een besluit in de Commissie agenda hierover; de uitkomst daarvan zal in 2026 verder uitgewerkt worden.

Voor nu moeten organisaties er echter van uitgaan dat augustus 2026 blijft staan als het moment waarop de AI Act volledig tanden krijgt. De Europese Commissie heeft immers duidelijk gemaakt dat ze achter de wet blijft staan en deze "volgens het wettelijke tijdschema" wil uitrollen. Alleen gerichte uitstel (bv. voor sancties of specifieke regels) is mogelijk, maar dat wordt pas in 2026 definitief beslist.

Meer guidance en standaardisatie

In de loop van 2026 verwachten we aanvullende uitvoeringshandelingen, normen en Q&A's vanuit de EU. Denk aan template-formulieren voor risicobeoordeling, of geharmoniseerde standaarden voor bepaalde technische vereisten (bijvoorbeeld voor dataset documentatie of nauwkeurigheidstesten). Eind 2025 zijn consultaties gestart, zoals over protocollen voor copyright-"opt-outs" in trainingsdata en over procedures voor het melden van ernstige incidenten per 2026. De resultaten hiervan zullen in 2026 zichtbaar worden in concretere richtlijnen waar bedrijven zich aan kunnen houden.

Eerste toetsen en handhavingscases

Tegen eind 2026 zou het goed kunnen dat de eerste handhavingsacties plaatsvinden. Toezichthouders zullen waarschijnlijk in 2026 nog vooral ondersteunend optreden (voorlichting, waarschuwingen), maar na augustus 2026 kan men boetes uitdelen bij flagrante non-compliance. Dit is iets waar met name de grote technologiebedrijven rekening mee houden: net zoals bij de GDPR zou de EU kunnen kiezen voor een paar spraakmakende cases om een precedent te stellen. Denkbaar is bijvoorbeeld een controle op AI-systemen in de HR-sector of een onderzoek naar generatieve AI-diensten die onvoldoende transparant zijn. Tegelijk blijft 2026 een jaar van samenwerking: de AI Act voorziet in peer-reviews en overleg tussen nationale toezichthouders, dus men zal niet meteen maximalistisch straffen zonder eerst afstemming te zoeken.

Conclusie

In 2026 bereikt de EU AI Act zijn volle werking, tenzij op de valreep nog uitstel wordt besloten. Organisaties hebben in 2025 de waarschuwingsschoten gehoord en moeten 2026 gebruiken als "compliance sprint". De wetgevende vorderingen van 2025 – zoals gedragscodes en richtsnoeren – bieden een kader, maar de echte toets komt wanneer de regels op brede schaal toegepast worden. Belangrijke data als augustus 2026 fungeren als peilstok: ze zullen laten zien in hoeverre Europa's ambitieuze AI-regime levensvatbaar is in de praktijk.

Bovendien zal 2026 duidelijk maken of de EU hierin alleen blijft gaan of dat internationaal de lijnen naar elkaar toe bewegen. Eén ding is zeker: de ontwikkelingen rondom de AI Act zullen in 2026 onverminderd doorgaan, met potentieel verdere finetuning van de regels en hun interpretatie. Wij blijven deze ruimte op de voet volgen en houden u op de hoogte van de nieuwste inzichten en verplichtingen rondom AI-regulering in Europa.


📚 Verdiep je kennis: Bekijk de Complete EU AI Act Gids voor een volledig overzicht van alle aspecten van de AI-wetgeving.