Responsible AI Platform
Artikel 6 van 1135%
🇬🇧 English

Artikel 6: Classificatieregels voor AI-systemen met een hoog risico

EU Official:
Van toepassing vanaf 2 aug 2026
Titel III: Hoog-risico AI-systemenInwerkingtreding: 2026-08-02

📅 Implementatie-tijdlijn

1 aug 2024
AI Act in werking getreden
2 feb 2025
Verboden praktijken van kracht (context voor classificatie)
2 feb 2026
EC guidelines over classificatie (GEMIST)
2 aug 2026
Hoog-risico verplichtingen van kracht — Art. 6 lid 2 (Bijlage III) systemen
2 aug 2027
Art. 6 lid 1 systemen (veiligheidscomponenten) — volledige toepassing

Officiële tekst

||

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📥 Download AI Act (PDF)

📘 Officiële Guidance

⚠️Deadline gemist

Richtsnoeren over classificatie van hoog-risico AI-systemen

De Europese Commissie heeft de deadline van 2 februari 2026 voor het publiceren van deze guidelines gemist. De guidelines moeten verduidelijken wanneer een AI-systeem als hoog-risico wordt geclassificeerd onder artikel 6, inclusief concrete voorbeelden per toepassingsgebied en een standaardsjabloon voor post-market monitoring.

Belangrijkste punten

  • ⚠️ Deadline 2 februari 2026 door Europese Commissie GEMIST
  • Moet een uitgebreide lijst van use cases bevatten per Bijlage III-categorie
  • Moet verduidelijken wanneer de Art. 6(3) uitzondering van toepassing is
  • Standaardsjabloon voor post-market monitoring plan moet worden meegeleverd
  • Organisaties moeten zich voorbereiden op basis van de wettekst zelf in afwachting van de guidelines

🏛️ Governance — Wie doet wat?

🏭Aanbieder

  • Classificeert het AI-systeem als hoog-risico of niet
  • Voert conformiteitsbeoordeling uit (Art. 43)
  • Registreert in EU-databank (Art. 49)
  • Kan Art. 6(3) uitzondering claimen met documentatie

🏢Gebruiksverantwoordelijke

  • Controleert classificatie van aanbieder
  • Past AI-systeem toe binnen beoogd doel
  • Bij afwijkend gebruik: herclassificatie nodig

🏛️Toezichthouder

  • Markttoezicht op correcte classificatie
  • Kan Art. 6(3) uitzondering aanvechten
  • Toegang tot EU-databank

🇪🇺Europese Commissie

  • Publiceert guidelines over classificatie (⚠️ deadline gemist)
  • Kan Bijlage III updaten via gedelegeerde handelingen
  • Stelt standaardsjablonen vast

🎯 Wat betekent dit voor u?

🏭 Aanbieder (Provider)
Bepaal of uw AI-systeem valt onder Bijlage I (veiligheidscomponent in gereguleerd product) of Bijlage III (standalone hoog-risico toepassing). Bij twijfel: gebruik onze AI Beslisboom. Classificatie bepaalt welke verplichtingen gelden.
🏢 Deployer (Gebruiksverantwoordelijke)
Vraag uw aanbieder om de conformiteitsverklaring en risicoclassificatie. Als deployer bent u verantwoordelijk voor correct gebruik binnen het beoogde doel. Bij afwijkend gebruik wordt u mogelijk als aanbieder beschouwd.
🏪 MKB / Startup
Veel MKB-bedrijven gebruiken AI als deployer, niet als provider. Uw belangrijkste actie: inventariseer welke AI u gebruikt en vraag leveranciers om hun classificatie. Gebruik onze AI Readiness Score om uw situatie te beoordelen.
🏛️ Overheid
Overheidsorganisaties die AI inzetten voor uitkeringen, vergunningen of handhaving vallen vrijwel altijd onder hoog-risico (Bijlage III, punt 5). Begin nu met een inventarisatie via het Algoritmeregister.

⚖️ Overlap met andere wetgeving

GDPR / AVGArt. 35 (DPIA)
Complementair

Hoog-risico classificatie onder de AI Act vereist vaak ook een DPIA onder de AVG. De risicobeoordeling voor hoog-risico AI-systemen overlapt met de DPIA-verplichting, maar ze zijn niet identiek — de AI Act focust op AI-specifieke risico's, de AVG op privacyrisico's.

NIS2-richtlijnArt. 21 (Cybersecurity)
Complementair

Hoog-risico AI-systemen moeten voldoen aan cybersecurity-eisen (Art. 15 AI Act). Als het AI-systeem onderdeel is van een essentiële of belangrijke entiteit onder NIS2, gelden aanvullende security-verplichtingen. De maatregelen kunnen gecombineerd worden.

Productaansprakelijkheidsrichtlijn (EU) 2024/2853Art. 6 (Gebrekkig product)
Versterkend

AI-systemen die als product op de markt komen vallen ook onder productaansprakelijkheid. De nieuwe PLD (2024/2853) noemt software expliciet als product. Een hoog-risico AI-systeem dat niet voldoet aan de AI Act kan als 'gebrekkig product' worden aangemerkt. De eerder voorgestelde AI Liability Directive is ingetrokken — de PLD is nu de primaire route voor AI-schadeclaims.

Machineverordening (EU) 2023/1230Art. 6 (Hoog-risico machines)
Geïntegreerd

AI-systemen die veiligheidscomponenten zijn van machines (Bijlage I, sectie A) vallen automatisch onder hoog-risico (Art. 6 lid 1). De conformiteitsbeoordeling van de machine en het AI-systeem moeten op elkaar worden afgestemd.

Digital Omnibus (EU) 2025Wijzigingen Art. 6, 49, deadlines
Wijzigend

De Digital Omnibus (19 november 2025) stelt significante wijzigingen voor aan de AI Act. Voor Art. 6 specifiek: de deadline voor hoog-risico systemen wordt 16 maanden uitgesteld (naar december 2027), de registratieplicht onder Art. 6(4) vervalt, en MKB-vrijstellingen worden uitgebreid. Dit is een vereenvoudigingsvoorstel, geen uitbreiding van verplichtingen. Status: voorstel, nog niet aangenomen.

Sectorale wetgeving (Bijlage I)Diverse
Geïntegreerd

Art. 6 lid 1 verwijst expliciet naar Bijlage I — 21 stuks EU-harmonisatiewetgeving. Als een AI-systeem een veiligheidscomponent is van een product dat onder deze wetgeving valt EN een conformiteitsbeoordeling door derden vereist, is het automatisch hoog-risico.

📖 Relevante overwegingen

🛠 Relevante tools

⚖️ Gerelateerde handhaving

  • CNIL beboet Amazon €32 miljoen voor AI-werknemersmonitoringCNIL · dec 2023
  • Hongaarse bank beboet voor AI-gebaseerde klantprofileringNAIH · aug 2021

📝 Gerelateerde blogposts

Kruisverwijzingen

Veelgestelde vragen

Hoe bepaal ik of mijn AI-systeem hoog-risico is?
Artikel 6 definieert twee categorieën hoog-risico AI: (1) AI-systemen die als veiligheidscomponent in producten worden gebruikt onder EU-harmonisatiewetgeving (Bijlage I), en (2) AI-systemen in specifieke toepassingsgebieden zoals biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid en rechtshandhaving (Bijlage III).
Wat is het verschil tussen Bijlage I en Bijlage III hoog-risico AI?
Bijlage I betreft AI in gereguleerde producten (medische apparaten, machines, speelgoed). Bijlage III betreft standalone AI-toepassingen in gevoelige domeinen zoals kredietbeoordeling, werving en selectie, en rechtshandhaving.
Wanneer gelden de regels voor hoog-risico AI?
De classificatieregels en verplichtingen voor hoog-risico AI-systemen gelden vanaf 2 augustus 2026.
Moet ik als MKB ook voldoen aan artikel 6 van de AI Act?
Artikel 6 van de AI Act maakt geen algemene uitzondering voor het MKB. Wel voorziet de AI Act in ondersteunende maatregelen en eventueel verlichte verplichtingen voor kleine en middelgrote ondernemingen, afhankelijk van hun rol in de AI-waardeketen.
Hoe verhoudt artikel 6 van de AI Act zich tot de AVG/GDPR?
Artikel 6 van de AI Act werkt aanvullend op de AVG. Waar de AVG persoonsgegevens beschermt, richt de AI Act zich op de veiligheid en betrouwbaarheid van AI-systemen. Organisaties moeten aan beide regelgevingen voldoen wanneer hun AI-systeem persoonsgegevens verwerkt.
Wat zijn de deadlines voor artikel 6 van de AI Act?
De AI Act kent een gefaseerde invoering. Verboden AI-praktijken gelden vanaf februari 2025, verplichtingen voor hoog-risico AI-systemen vanaf augustus 2026, en overige bepalingen worden geleidelijk van kracht. De specifieke deadline voor artikel 6 hangt af van de categorie van de verplichting.
Geldt artikel 6 van de AI Act ook voor AI-systemen die ik inkoop?
Ja, artikel 6 van de AI Act kan ook relevant zijn wanneer u AI-systemen inkoopt. Als gebruiksverantwoordelijke (deployer) heeft u eigen verplichtingen onder de AI Act, ongeacht of u het systeem zelf heeft ontwikkeld of ingekocht bij een aanbieder.
Wat is het verschil tussen provider en deployer bij artikel 6 van de AI Act?
Bij artikel 6 van de AI Act is de provider (aanbieder) degene die het AI-systeem ontwikkelt of op de markt brengt, terwijl de deployer (gebruiksverantwoordelijke) degene is die het systeem onder eigen verantwoordelijkheid inzet. Beide rollen hebben verschillende verplichtingen.
Kan mijn AI-systeem toch niet hoog-risico zijn, ook al staat het in Bijlage III?
Ja, artikel 6 lid 3 bevat uitzonderingen. Een AI-systeem uit Bijlage III is niet hoog-risico als het een beperkte procedurele taak uitvoert, bedoeld is om het resultaat van een eerder voltooide menselijke activiteit te verbeteren, patronen detecteert zonder menselijke beoordeling te vervangen, of slechts een voorbereidende taak uitvoert.
Moet ik documenteren waarom mijn AI-systeem niet hoog-risico is?
Ja, als u concludeert dat uw AI-systeem uit Bijlage III niet hoog-risico is op basis van artikel 6 lid 3, moet u dit documenteren vóór het systeem op de markt wordt gebracht en deze documentatie beschikbaar stellen aan toezichthouders. U moet het systeem ook registreren in de EU-databank met een toelichting.
Wat zijn de praktische gevolgen van een hoog-risico classificatie?
Een hoog-risico classificatie betekent dat u moet voldoen aan uitgebreide eisen: een risicomanagementsysteem opzetten (art. 9), data governance waarborgen (art. 10), technische documentatie opstellen (Bijlage IV), logging implementeren (art. 12), transparantie bieden (art. 13), menselijk toezicht inrichten (art. 14), en een conformiteitsbeoordeling doorlopen.
Publiceert de Europese Commissie een lijst met voorbeelden van hoog-risico en niet hoog-risico AI?
Ja, artikel 6 lid 5 verplicht de Commissie om vóór 2 februari 2026 richtsnoeren te publiceren met praktische voorbeelden van AI-systemen die wel en niet als hoog-risico worden geclassificeerd. Deze richtlijnen zullen helpen bij de interpretatie van de classificatieregels.
Hoeveel kost compliance met de hoog-risico AI-eisen?
Volgens schattingen van CEPS kost het opzetten van een kwaliteitsmanagementsysteem voor één hoog-risico AI-product tussen de €193.000 en €330.000, met circa €71.400 per jaar aan onderhoudskosten. De exacte kosten variëren sterk afhankelijk van complexiteit, bestaande processen en de sector.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden