Aangemelde instantie (Notified Body)
Compliance & GovernanceEen onafhankelijke organisatie aangewezen door een EU-lidstaat om conformiteitsbeoordelingen uit te voeren voor bepaalde hoog-risico AI-systemen. Vereist wanneer self-assessment niet is toegestaan.
ACM (Autoriteit Consument & Markt)
Toezichthouders & InstantiesDe Nederlandse mededingings- en consumentenautoriteit. De ACM houdt toezicht op AI in de context van consumentenbescherming, platformregulering (DMA/DSA), en mededinging. De Taskforce Data en Algoritmen (TDA) van de ACM focust specifiek op markten waar algoritmen een rol spelen.
Adversarial Testing
Technische ConceptenHet systematisch testen van AI-systemen op kwetsbaarheden door ze bloot te stellen aan bewust misleidende of kwaadaardige input. Verplicht voor GPAI-modellen met systemisch risico. Omvat red teaming, jailbreak-pogingen en robustness testing.
AFM (Autoriteit Financiële Markten)
Toezichthouders & InstantiesDe Nederlandse gedragstoezichthouder voor financiële markten. De AFM houdt toezicht op AI-toepassingen die consumenten en beleggers raken, zoals kredietwaardigheidsbeoordeling en robo-advies. Werkt samen met DNB voor integraal AI-toezicht in de financiële sector.
AI Agent
Technische ConceptenEen AI-systeem dat autonoom taken kan uitvoeren namens een gebruiker, zoals e-mails beantwoorden, code schrijven of aankopen doen. AI-agents kunnen zelfstandig beslissingen nemen en acties ondernemen, wat vragen oproept over menselijk toezicht en aansprakelijkheid onder de AI Act.
AI Board (European Artificial Intelligence Board)
EU AI ActHet adviesorgaan bestaande uit vertegenwoordigers van alle EU-lidstaten dat de Commissie adviseert over AI Act-implementatie. De AI Board bevordert consistente toepassing, coördineert tussen nationale autoriteiten, en adviseert over richtsnoeren en standaardisatieverzoeken.
AI Governance
Compliance & GovernanceHet geheel van principes, beleid, processen en structuren waarmee organisaties verantwoord en ethisch gebruik van AI waarborgen. Omvat risicobeheer, compliance, transparantie, accountability en menselijk toezicht.
AI in kritieke infrastructuur
RisicoclassificatieAI-systemen gebruikt als veiligheidscomponent in kritieke infrastructuur zoals energie, water, transport en telecom. Hoog-risico onder Bijlage III. Vereist conformiteitsbeoordeling door aangemelde instantie in veel gevallen. Cybersecurity-eisen zijn extra streng.
AI in onderwijs
RisicoclassificatieAI-systemen gebruikt in het onderwijs, zoals adaptieve leersystemen, geautomatiseerde beoordeling en toegangsbeslissingen. Aangewezen als hoog-risico in Bijlage III wanneer gebruikt voor toegang, toewijzing, prestatiebeoordeling of gedragsmonitoring. Emotieherkenning in onderwijscontexten is verboden.
AI Office
EU AI ActHet Europese AI Office is de instantie binnen de Europese Commissie die verantwoordelijk is voor de implementatie van de EU AI Act. Het AI Office ontwikkelt richtlijnen, coördineert met nationale toezichthouders, en houdt toezicht op GPAI-modellen en verboden praktijken.
AI Pact
EU AI ActEen vrijwillig initiatief van de Europese Commissie waarbij organisaties zich kunnen aansluiten om alvast aan de EU AI Act te voldoen voordat deze volledig van kracht is. Deelnemers krijgen toegang tot resources, best practices en een netwerk van andere organisaties.
AI Regulatory Sandbox
Compliance & GovernanceEen gecontroleerde omgeving opgezet door toezichthouders waarin organisaties AI-innovaties kunnen testen met regulatory begeleiding. Lidstaten moeten deze sandboxes opzetten onder de EU AI Act om innovatie te bevorderen.
AI Safety & Security Lab (AISSL)
Toezichthouders & InstantiesHet expertisecentrum van de RDI dat onderzoek doet naar complexe en opkomende AI-risico's. Het AISSL analyseert nieuwe dreigingen zoals het "Internet of Agents", voert technische evaluaties uit van AI-systemen, en ondersteunt andere toezichthouders met technische expertise.
AI voor migratie en grensbewaking
RisicoclassificatieAI-systemen gebruikt voor migratiebeheer, zoals risicobeoordeling van reizigers, visumaanvragen en asielverzoeken. Aangewezen als hoog-risico in Bijlage III. Systemen mogen niet discrimineren op basis van nationaliteit of etniciteit. Extra transparantie-eisen gelden.
AI voor rechtshandhaving
RisicoclassificatieAI-systemen gebruikt door politie en justitie, zoals voorspellend politiewerk, risicobeoordeling en bewijsanalyse. Streng gereguleerd onder de AI Act: real-time biometrische identificatie is grotendeels verboden, en veel toepassingen zijn hoog-risico. Extra waarborgen voor grondrechten zijn vereist.
AI-aansprakelijkheidsrichtlijn (AILD)
Compliance & GovernanceDe voorgestelde EU-richtlijn die nationale aansprakelijkheidsregels voor AI harmoniseert. Maakt het makkelijker voor slachtoffers om schadevergoeding te claimen door bewijslastverlichtingen. Verplicht openbaarmaking van bewijsmateriaal door AI-operators. Complementeert de AI Act.
AI-geletterdheid
Compliance & GovernanceHet vermogen om AI-technologie te begrijpen, kritisch te evalueren en verantwoord te gebruiken. Artikel 4 van de EU AI Act verplicht organisaties om te zorgen dat medewerkers die met AI werken voldoende AI-geletterd zijn. Deze verplichting geldt sinds februari 2025.
AI-levenscyclus
Technische ConceptenDe volledige cyclus van een AI-systeem van conceptie tot buiten gebruik stelling. Omvat: ontwerp, dataverzameling, training, validatie, deployment, monitoring en onderhoud. De AI Act vereist risicomanagement gedurende de gehele levenscyclus.
AI-systeem
EU AI ActVolgens de EU AI Act: een machinegebaseerd systeem dat is ontworpen om met variërende niveaus van autonomie te werken, dat na implementatie aanpassingsvermogen kan vertonen, en dat voor expliciete of impliciete doelstellingen uit de input die het ontvangt, afleidt hoe output te genereren zoals voorspellingen, content, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden.
AI-waardeketen (Value Chain)
Rollen & ActorenDe keten van actoren betrokken bij de ontwikkeling en inzet van AI-systemen: van hardware- en cloudproviders, via modelontwikkelaars en systeemintegrators, tot deployers en eindgebruikers. De AI Act kent verplichtingen toe aan verschillende schakels in de keten.
Algoritme
Technische ConceptenEen set instructies of regels die een computer volgt om een taak uit te voeren of probleem op te lossen. In de context van AI: de wiskundige modellen en procedures die bepalen hoe een AI-systeem input verwerkt naar output.
Algoritmekader
Compliance & GovernanceHet Nederlandse beleidskader op Overheid.nl met richtlijnen voor verantwoord algoritmegebruik door de overheid. Het kader biedt praktische handvatten voor risicobeoordeling, transparantie en menselijke controle bij algoritmische besluitvorming.
Algoritmeregister
Technische ConceptenEen publiek register waarin overheidsorganisaties transparant maken welke algoritmes en AI-systemen zij gebruiken. In Nederland is dit verplicht voor overheden. Het bevat informatie over doel, werking, data en verantwoordelijkheden.
ALTAI
Assessments & AuditsAssessment List for Trustworthy AI. Een praktische self-assessment checklist ontwikkeld door de Europese Commissie om te evalueren of AI-systemen voldoen aan ethische richtlijnen voor betrouwbare AI. Bevat vragen over transparantie, diversiteit, fairness en accountability.
Annex III
RisicoclassificatieDe bijlage bij de EU AI Act die de lijst bevat van hoog-risico AI-toepassingsgebieden. Dit omvat 8 categorieën: biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, rechtshandhaving, migratie, en rechtspraak.
Artikel 10 (Data governance)
EU AI ActHet artikel dat eisen stelt aan data- en datagovernancepraktijken voor hoog-risico AI. Trainings-, validatie- en testdatasets moeten relevant, representatief, vrij van fouten en volledig zijn. Bias moet worden gedetecteerd en aangepakt.
Artikel 11 (Technische documentatie)
EU AI ActHet artikel dat technische documentatie verplicht stelt voor hoog-risico AI-systemen. De documentatie moet worden opgesteld vóór het op de markt brengen en actueel worden gehouden. Bijlage IV specificeert de vereiste inhoud.
Artikel 12 (Registratie van gebeurtenissen)
EU AI ActHet artikel dat automatische logging verplicht stelt voor hoog-risico AI-systemen. Logs moeten gebeurtenissen registreren die relevant zijn voor het identificeren van risico's en het faciliteren van post-market monitoring. Logs moeten gedurende een passende periode worden bewaard.
Artikel 13 (Transparantie en informatieverstrekking)
EU AI ActHet artikel dat transparantie verplicht stelt voor hoog-risico AI-systemen. Systemen moeten zo worden ontworpen dat deployers de output kunnen interpreteren en correct kunnen gebruiken. Gebruiksinstructies moeten duidelijke informatie bevatten over capaciteiten en beperkingen.
Artikel 14 (Menselijk toezicht)
EU AI ActHet artikel dat menselijk toezicht verplicht stelt voor hoog-risico AI-systemen. Systemen moeten effectief kunnen worden gecontroleerd door natuurlijke personen. Dit omvat de mogelijkheid om het systeem te begrijpen, output correct te interpreteren, en indien nodig in te grijpen of te stoppen.
Artikel 15 (Nauwkeurigheid, robuustheid en cybersecurity)
EU AI ActHet artikel dat technische prestatie-eisen stelt aan hoog-risico AI-systemen. Systemen moeten passende niveaus van nauwkeurigheid, robuustheid en cybersecurity bereiken. Ze moeten bestand zijn tegen fouten, inconsistenties en kwaadaardige acties.
Artikel 16 (Verplichtingen van providers)
EU AI ActHet kernartkel dat de verplichtingen van providers van hoog-risico AI-systemen opsomt. Omvat: zorgen voor conformiteit, kwaliteitsmanagementsysteem opzetten, documentatie bijhouden, CE-markering aanbrengen, registreren in EU-database, en corrigerende maatregelen nemen bij non-conformiteit.
Artikel 17 (Kwaliteitsmanagementsysteem)
EU AI ActHet artikel dat een kwaliteitsmanagementsysteem verplicht stelt voor providers van hoog-risico AI. Het systeem moet schriftelijk worden vastgelegd en omvat: strategie voor naleving, ontwerpprocessen, testprocedures, risicomanagement, post-market monitoring en incidentrapportage.
Artikel 26 (Verplichtingen van deployers)
EU AI ActHet artikel dat de verplichtingen van deployers (gebruiksverantwoordelijken) van hoog-risico AI-systemen vastlegt. Deployers moeten: systemen gebruiken volgens instructies, input data monitoren, logs bewaren, betrokkenen informeren, menselijk toezicht waarborgen, en relevante incidenten melden.
Artikel 27 (Grondrechteneffectbeoordeling)
EU AI ActHet artikel dat een Fundamental Rights Impact Assessment (FRIA) verplicht stelt voor bepaalde deployers van hoog-risico AI. Verplicht voor overheidsinstanties en private partijen die publieke diensten verlenen. De beoordeling moet worden geregistreerd en beschikbaar gesteld aan de markttoezichthouder.
Artikel 4 (AI Literacy)
Compliance & GovernanceHet artikel in de EU AI Act dat providers en deployers verplicht om te zorgen dat personeel dat met AI-systemen werkt voldoende AI-geletterdheid heeft, rekening houdend met hun technische kennis, ervaring en de context van gebruik.
Artikel 50 (Transparantieverplichtingen)
EU AI ActHet artikel dat transparantieverplichtingen stelt voor bepaalde AI-systemen: (1) AI die met personen interacteert moet dit duidelijk maken, (2) emotieherkenning en biometrische categorisatie moet worden gemeld, (3) deepfakes moeten als AI-gegenereerd worden gelabeld, (4) AI-gegenereerde content moet machineleesbaar worden gemarkeerd.
Artikel 52 (GPAI-modellen verplichtingen)
EU AI ActHet artikel dat basisverplichtingen vastlegt voor aanbieders van GPAI-modellen. Omvat: technische documentatie opstellen, informatie verstrekken aan downstream providers, beleid voor auteursrechtelijke naleving opstellen, en een samenvatting van trainingsdata publiceren.
Artikel 55 (Systemisch risico GPAI)
EU AI ActHet artikel dat extra verplichtingen vastlegt voor GPAI-modellen met systemisch risico. Modellen boven de 10^25 FLOP drempel of aangewezen door de Commissie moeten: modelevaluaties uitvoeren, systemische risico's beoordelen en mitigeren, ernstige incidenten rapporteren, en adequate cybersecurity waarborgen.
Artikel 57 (AI Regulatory Sandboxes)
EU AI ActHet artikel dat lidstaten verplicht om AI regulatory sandboxes op te richten. Sandboxes bieden een gecontroleerde omgeving voor het ontwikkelen en testen van innovatieve AI onder toezicht. Minimaal één sandbox per lidstaat moet operationeel zijn voor augustus 2026.
Artikel 6 (Classificatieregels)
EU AI ActHet artikel in de EU AI Act dat bepaalt wanneer een AI-systeem als hoog-risico wordt geclassificeerd. Een systeem is hoog-risico als het (a) een veiligheidscomponent is van een product onder EU-productregelgeving, of (b) valt onder de use cases in Bijlage III, tenzij het geen significant risico vormt.
Artikel 9 (Risicobeheersysteem)
EU AI ActHet artikel dat een risicobeheersysteem verplicht stelt voor hoog-risico AI-systemen. Dit systeem moet risico's identificeren, analyseren, evalueren en mitigeren gedurende de gehele levenscyclus. Het moet iteratief zijn en regelmatig worden bijgewerkt.
Automation Bias
Technische ConceptenDe neiging van mensen om AI-output te vertrouwen en minder kritisch te beoordelen dan menselijke adviezen. Een risico bij hoog-risico AI-systemen waar menselijk toezicht vereist is. AI-geletterdheid training moet automation bias adresseren.
Autoriteit Persoonsgegevens (AP)
Toezichthouders & InstantiesDe Nederlandse privacytoezichthouder die samen met de RDI verantwoordelijk is voor AI-toezicht. De AP houdt toezicht op de AVG en speelt een sleutelrol bij het beoordelen van AI-systemen die persoonsgegevens verwerken. De Directie Coördinatie Algoritmes van de AP coördineert specifiek AI Act-toezicht.
AVG / GDPR
Privacy & EthicsAlgemene Verordening Gegevensbescherming (General Data Protection Regulation). De Europese privacywetgeving die de verwerking van persoonsgegevens reguleert. De AVG en EU AI Act vullen elkaar aan: AI-systemen die persoonsgegevens verwerken moeten aan beide voldoen.