Artikel 6: Classificatieregels voor AI-systemen met een hoog risico
📅 Implementatie-tijdlijn
Officiële tekst
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📥 Download AI Act (PDF)📘 Officiële Guidance
Richtsnoeren over classificatie van hoog-risico AI-systemen
De Europese Commissie heeft de deadline van 2 februari 2026 voor het publiceren van deze guidelines gemist. De guidelines moeten verduidelijken wanneer een AI-systeem als hoog-risico wordt geclassificeerd onder artikel 6, inclusief concrete voorbeelden per toepassingsgebied en een standaardsjabloon voor post-market monitoring.
Belangrijkste punten
- •⚠️ Deadline 2 februari 2026 door Europese Commissie GEMIST
- •Moet een uitgebreide lijst van use cases bevatten per Bijlage III-categorie
- •Moet verduidelijken wanneer de Art. 6(3) uitzondering van toepassing is
- •Standaardsjabloon voor post-market monitoring plan moet worden meegeleverd
- •Organisaties moeten zich voorbereiden op basis van de wettekst zelf in afwachting van de guidelines
🏛️ Governance — Wie doet wat?
🏭Aanbieder
- •Classificeert het AI-systeem als hoog-risico of niet
- •Voert conformiteitsbeoordeling uit (Art. 43)
- •Registreert in EU-databank (Art. 49)
- •Kan Art. 6(3) uitzondering claimen met documentatie
🏢Gebruiksverantwoordelijke
- •Controleert classificatie van aanbieder
- •Past AI-systeem toe binnen beoogd doel
- •Bij afwijkend gebruik: herclassificatie nodig
🏛️Toezichthouder
- •Markttoezicht op correcte classificatie
- •Kan Art. 6(3) uitzondering aanvechten
- •Toegang tot EU-databank
🇪🇺Europese Commissie
- •Publiceert guidelines over classificatie (⚠️ deadline gemist)
- •Kan Bijlage III updaten via gedelegeerde handelingen
- •Stelt standaardsjablonen vast
🎯 Wat betekent dit voor u?
🏭 Aanbieder (Provider)▼
🏢 Deployer (Gebruiksverantwoordelijke)▼
🏪 MKB / Startup▼
🏛️ Overheid▼
⚖️ Overlap met andere wetgeving
Hoog-risico classificatie onder de AI Act vereist vaak ook een DPIA onder de AVG. De risicobeoordeling voor hoog-risico AI-systemen overlapt met de DPIA-verplichting, maar ze zijn niet identiek — de AI Act focust op AI-specifieke risico's, de AVG op privacyrisico's.
Hoog-risico AI-systemen moeten voldoen aan cybersecurity-eisen (Art. 15 AI Act). Als het AI-systeem onderdeel is van een essentiële of belangrijke entiteit onder NIS2, gelden aanvullende security-verplichtingen. De maatregelen kunnen gecombineerd worden.
AI-systemen die als product op de markt komen vallen ook onder productaansprakelijkheid. De nieuwe PLD (2024/2853) noemt software expliciet als product. Een hoog-risico AI-systeem dat niet voldoet aan de AI Act kan als 'gebrekkig product' worden aangemerkt. De eerder voorgestelde AI Liability Directive is ingetrokken — de PLD is nu de primaire route voor AI-schadeclaims.
AI-systemen die veiligheidscomponenten zijn van machines (Bijlage I, sectie A) vallen automatisch onder hoog-risico (Art. 6 lid 1). De conformiteitsbeoordeling van de machine en het AI-systeem moeten op elkaar worden afgestemd.
De Digital Omnibus (19 november 2025) stelt significante wijzigingen voor aan de AI Act. Voor Art. 6 specifiek: de deadline voor hoog-risico systemen wordt 16 maanden uitgesteld (naar december 2027), de registratieplicht onder Art. 6(4) vervalt, en MKB-vrijstellingen worden uitgebreid. Dit is een vereenvoudigingsvoorstel, geen uitbreiding van verplichtingen. Status: voorstel, nog niet aangenomen.
Art. 6 lid 1 verwijst expliciet naar Bijlage I — 21 stuks EU-harmonisatiewetgeving. Als een AI-systeem een veiligheidscomponent is van een product dat onder deze wetgeving valt EN een conformiteitsbeoordeling door derden vereist, is het automatisch hoog-risico.
📖 Relevante overwegingen
AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als veiligheidscomponenten van producten. Overeenkomstig…
Een bijzonder relevante factor voor de classificering van een AI-systeem als AI-systeem met een hoog risico, is de omvang van de door het AI-systeem veroorzaakte nadelige effecten op de grondrechten d…
Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG…
Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde in een bijlage bij deze verordening vermelde harmonis…
🛠 Relevante tools
⚖️ Gerelateerde handhaving
- •
- •
📝 Gerelateerde blogposts
Kruisverwijzingen
Veelgestelde vragen
Hoe bepaal ik of mijn AI-systeem hoog-risico is?▼
Wat is het verschil tussen Bijlage I en Bijlage III hoog-risico AI?▼
Wanneer gelden de regels voor hoog-risico AI?▼
Moet ik als MKB ook voldoen aan artikel 6 van de AI Act?▼
Hoe verhoudt artikel 6 van de AI Act zich tot de AVG/GDPR?▼
Wat zijn de deadlines voor artikel 6 van de AI Act?▼
Geldt artikel 6 van de AI Act ook voor AI-systemen die ik inkoop?▼
Wat is het verschil tussen provider en deployer bij artikel 6 van de AI Act?▼
Kan mijn AI-systeem toch niet hoog-risico zijn, ook al staat het in Bijlage III?▼
Moet ik documenteren waarom mijn AI-systeem niet hoog-risico is?▼
Wat zijn de praktische gevolgen van een hoog-risico classificatie?▼
Publiceert de Europese Commissie een lijst met voorbeelden van hoog-risico en niet hoog-risico AI?▼
Hoeveel kost compliance met de hoog-risico AI-eisen?▼
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
Aanmelden