Responsible AI Platform

Europees Parlement stemt voor AI Act Omnibus: uitstel hoog-risico en verbod op nudifier-apps

··6 min leestijd

Parlementspositie aangenomen, nog geen definitief recht. Het Europees Parlement heeft op 26 maart 2026 zijn positie over de AI Act Omnibus vastgesteld met 569 stemmen voor, 45 tegen en 23 onthoudingen. Dit is de inzet waarmee het Parlement de trialoog ingaat - de onderhandelingen met de Raad van de EU zijn nog niet begonnen. De uiteindelijke wet kan nog afwijken van wat hier beschreven staat.

Op 26 maart 2026 stemde het voltallige Europees Parlement over de AI Act Omnibus, het vereenvoudigingspakket dat de Europese Commissie in november 2025 had voorgesteld als onderdeel van haar zevende omnibuspakket. De uitslag was overtuigend: 569 parlementariers stemden voor, 45 tegen en 23 onthielden zich. Na een positieve commissiestemming van 19 maart 2026 bevestigt het Parlement hiermee zijn positie. Wat volgde was een debat over vier thema's die voor organisaties die werken met AI van direct belang zijn.


Twee aparte uitsteltermijnen voor hoog-risico AI

Het meest besproken onderdeel van de Omnibus is de verschuiving van deadlines voor hoog-risico AI-systemen. De tekst maakt hierbij een onderscheid dat niet altijd duidelijk naar voren is gekomen in de publieke berichtgeving.

Enerzijds zijn er de systemen die worden opgesomd in Bijlage III van de AI Act, de groep die de meeste organisaties voor ogen hebben als ze denken aan hoog-risico AI. Daarin zitten biometrische systemen, toepassingen voor kritieke infrastructuur, AI in onderwijs en arbeidsmarkt, systemen voor essentiële diensten, rechtshandhaving, rechtsbedeling en grensbeheer. Voor al deze systemen verschuift de datum van toepasselijkheid van de hoog-risicoverplichtingen van 2 augustus 2026 naar 2 december 2027.

Anderzijds zijn er de AI-systemen die al worden gereguleerd door bestaande EU-sectorale veiligheidswetgeving. Denk aan medische hulpmiddelen, radioapparatuur en veiligheid van speelgoed. Die categorie krijgt nog meer tijd: tot 2 augustus 2028. De redenering is dat producten die al uitvoerig worden getoetst onder sectorspecifieke regimes geen dubbele last hoeven te dragen. De Omnibus bepaalt bovendien dat de AI Act-verplichtingen voor die producten minder streng mogen zijn dan voor systemen zonder sectorale regulering.

Nieuwe toepassingstijdlijn na de plenaire stemming

Hoog-risico AI - Bijlage III (biometrie, kritieke infrastructuur, onderwijs, arbeidsmarkt, essentiële diensten, rechtshandhaving, rechtsbedeling, grensbeheer): verplichtingen gelden vanaf 2 december 2027.

Hoog-risico AI - sectorale EU-wetgeving (medische hulpmiddelen, radioapparatuur, speelgoedsafety en vergelijkbare regimes): verplichtingen gelden vanaf 2 augustus 2028.

Watermarking (AI-gegenereerde audio, beeld, video en tekst): aanbieders moeten voldoen vanaf 2 november 2026.

Verboden praktijken - nudifier-apps: geldt direct na inwerkingtreding van de definitieve wet.

Het is cruciaal om hierbij te benadrukken dat de reeds geldende verplichtingen ongewijzigd van kracht blijven. De AI-geletterdheidsplicht van Artikel 4 geldt al vanaf 2 februari 2025. De verbodsbepalingen van Artikel 5 zijn eveneens al actief. De Omnibus stelt die data niet opnieuw ter discussie.


Nudifier-apps: een nieuw expliciet verbod

Het meest opvallende nieuwe element van de Omnibus is de expliciete toevoeging van zogenoemde nudifier-applicaties aan de lijst van verboden AI-toepassingen. Het gaat om systemen die via AI seksueel expliciete of intieme beelden creeren of manipuleren van identificeerbare echte personen, zonder hun toestemming. Dat een dergelijk verbod nu apart wordt opgenomen, is een directe reactie op de groeiende problematiek van niet-consensuele intieme beelden, ook wel bekend als deepfake porn of NCII.

De tekst bevat een gerichte uitzondering: aanbieders waarvan de systemen over effectieve veiligheidsmaatregelen beschikken die het aanmaken van dergelijke beelden actief voorkomen, vallen buiten het verbod. Daarmee is de lat voor die uitzondering bewust hoog gelegd. Een algemene gebruiksrechtenbepaling of moderatiebeleid volstaat niet. De maatregel moet technisch effectief zijn.

Voor de meeste organisaties die AI-tools aanbieden, is dit verbod geen operationele verrassing. Platforms die generatieve beeldbewerking aanbieden, zullen hun architectuur en moderatiebeleid tegen dit criterium moeten afzetten. Dat is echter een andere exercitie dan de bredere hoog-risicovereisten die elders in de AI Act worden gesteld.


Watermarking: eerder dan de Commissie wilde

De Europese Commissie had in haar oorspronkelijke Omnibus-voorstel voorgesteld om aanbieders van AI-tools die content genereren tot 2 februari 2027 de tijd te geven voor de watermarking- en labelingsverplichtingen van Artikel 50. Het Parlement kiest een striktere termijn: 2 november 2026, ruim drie maanden eerder.

Voor organisaties die AI-gegenereerde tekst, audio, beeld of video publiek verspreiden, is dit een punt om in de planning op te nemen. Artikel 50 verplicht tot transparante markering van synthetische content zodat gebruikers weten dat de informatie door AI is geproduceerd. De Omnibus verschuift de datum ten opzichte van de oorspronkelijke wet, maar het Parlement weigert de verlichting die de Commissie had voorgesteld op dit punt volledig over te nemen.


Biascorrectie en persoonsgegevens

De Omnibus introduceert een nieuwe expliciete grondslag voor aanbieders van AI-systemen: zij mogen persoonsgegevens, waaronder bijzondere categorieen, verwerken om discriminerende vooringenomenheid in hun systemen te detecteren en te corrigeren. Tot dusver was dit juridisch een grijs gebied, zeker bij gevoelige gegevens zoals ras, gezondheid of religie die nodig kunnen zijn om bias in trainingsdata te identificeren.

De Omnibus stelt hiervoor strenge waarborgen. Maar het principiele groene licht is er. Dat betekent dat bias-audits, die voor hoog-risico AI-systemen sowieso verplicht zijn, nu op een duidelijker juridische grondslag kunnen worden uitgevoerd. Voor teams die AI-governance combineren met gegevensbeschermingstaken is dit een merkbare verbetering van de rechtspositie.


Steun uitgebreid naar kleine midcap-ondernemingen

De AI Act bevat al specifieke ondersteuningsmaatregelen voor kleine en middelgrote ondernemingen, inclusief toegang tot regelgevingssandboxen en verminderde administratieve lasten. De Omnibus breidt die maatregelen uit naar small mid-cap ondernemingen, een categorie die groter is dan het klassieke mkb maar nog steeds als relatief kleinschalig wordt beschouwd. Dat is een praktische erkenning dat niet alleen de allerkleinste spelers moeite hebben met de nalevingslasten van de AI Act.


Wat nu volgt: trialoog met de Raad

De plenaire stemming van 26 maart markeert het begin van de volgende fase, niet het einde van het wetgevingsproces. De Raad van de EU heeft op dit moment nog geen definitief standpunt vastgesteld over de AI Act Omnibus. Zodra de Raad zijn positie heeft bepaald, beginnen de trialoogonderhandelingen, de driepartijenoverleggen tussen het Parlement, de Raad en de Europese Commissie.

Dat onderhandelingsproces kan leiden tot aanpassingen van de data, de reikwijdte van uitzonderingen en de precieze formulering van verplichtingen. Organisaties die hun planning baseren op de nu bekende data, doen er verstandig aan om de trialooguitkomst te blijven volgen. De richting die door het Parlement is ingeslagen, geeft wel degelijk een robuust signaal, maar de definitieve wet is het. En die is er nog niet.

Voor compliance-teams is de boodschap ongewijzigd ten opzichte van wat eerder dit jaar gold: stop niet met voorbereiden. De classificatievraag, of een systeem hoog-risico is of niet, moet vroeg worden beantwoord. Wie nu investeert in risicobeheer, technische documentatie en interne governance-processen, heeft straks de ruimte om die te testen en aan te scherpen. Wie wacht op de definitieve wet, verliest die ruimte.


Bronnen

Europees Parlement: AI Act: delayed application, ban on nudifier apps (26 maart 2026)

⚖️ Genoemde wetgeving

❓ Veelgestelde vragen over deze wetgeving

Welke transparantieverplichtingen gelden voor AI?
Artikel 50 vereist dat gebruikers worden geïnformeerd wanneer zij interacteren met een AI-systeem (zoals chatbots), wanneer content door AI is gegenereerd (deepfakes), en wanneer emotieherkenning of biometrische categorisatie wordt toegepast.
Wat is AI-geletterdheid volgens de AI Act?
Artikel 4 verplicht aanbieders en gebruiksverantwoordelijken om te zorgen dat hun personeel voldoende kennis heeft van AI-systemen. Dit omvat begrip van de werking, risico's en beperkingen van de gebruikte AI.
Welke AI-praktijken zijn verboden onder de AI Act?
Artikel 5 verbiedt onder meer: manipulatieve AI-technieken, exploitatie van kwetsbaarheden, social scoring door overheden, real-time biometrische identificatie in openbare ruimten (met uitzonderingen), en emotieherkenning op de werkplek en in het onderwijs.
Op LearnWize:EU AI Act ComplianceProbeer het gratis

Van risicoclassificatie tot conformiteitsbeoordeling: leer het in 10 interactieve modules.

Doe de gratis AI challenge