Responsible AI Platform
Artikel 14 van 11312%
🇬🇧 English

Artikel 14: Menselijk toezicht

EU Official:
Van toepassing vanaf 2 aug 2026
Titel III: Hoog-risico AI-systemenInwerkingtreding: 2026-08-02

Officiële tekst

||

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

📥 Download AI Act (PDF)

✅ Compliance Checklist

  • Menselijk toezicht is mogelijk tijdens gebruik
  • Gebruiker kan output begrijpen en interpreteren
  • Gebruiker kan beslissing negeren of corrigeren
  • Noodstopprocedure beschikbaar
  • Toezichthouders getraind in gebruik systeem

Wil je je voortgang opslaan? Maak een gratis account aan

🛠 Relevante tools

Relevante overwegingen

⚖️ Gerelateerde handhaving

Nog geen handhavingsacties voor dit artikel. Volg ontwikkelingen via de Enforcement Tracker.

Kruisverwijzingen

Artikelen

Overwegingen

Bijlagen

Veelgestelde vragen

Wat houdt menselijk toezicht bij AI in?
Artikel 14 vereist dat hoog-risico AI-systemen zo worden ontworpen dat effectief toezicht mogelijk is door natuurlijke personen. Dit omvat de mogelijkheid om de output te begrijpen, te negeren of te corrigeren.
Moet ik als MKB ook voldoen aan artikel 14 van de AI Act?
Artikel 14 van de AI Act maakt geen algemene uitzondering voor het MKB. Wel voorziet de AI Act in ondersteunende maatregelen en eventueel verlichte verplichtingen voor kleine en middelgrote ondernemingen, afhankelijk van hun rol in de AI-waardeketen.
Hoe verhoudt artikel 14 van de AI Act zich tot de AVG/GDPR?
Artikel 14 van de AI Act werkt aanvullend op de AVG. Waar de AVG persoonsgegevens beschermt, richt de AI Act zich op de veiligheid en betrouwbaarheid van AI-systemen. Organisaties moeten aan beide regelgevingen voldoen wanneer hun AI-systeem persoonsgegevens verwerkt.
Wat zijn de deadlines voor artikel 14 van de AI Act?
De AI Act kent een gefaseerde invoering. Verboden AI-praktijken gelden vanaf februari 2025, verplichtingen voor hoog-risico AI-systemen vanaf augustus 2026, en overige bepalingen worden geleidelijk van kracht. De specifieke deadline voor artikel 14 hangt af van de categorie van de verplichting.
Geldt artikel 14 van de AI Act ook voor AI-systemen die ik inkoop?
Ja, artikel 14 van de AI Act kan ook relevant zijn wanneer u AI-systemen inkoopt. Als gebruiksverantwoordelijke (deployer) heeft u eigen verplichtingen onder de AI Act, ongeacht of u het systeem zelf heeft ontwikkeld of ingekocht bij een aanbieder.
Wat is het verschil tussen provider en deployer bij artikel 14 van de AI Act?
Bij artikel 14 van de AI Act is de provider (aanbieder) degene die het AI-systeem ontwikkelt of op de markt brengt, terwijl de deployer (gebruiksverantwoordelijke) degene is die het systeem onder eigen verantwoordelijkheid inzet. Beide rollen hebben verschillende verplichtingen.
Welke documentatie vereist artikel 14 van de AI Act?
Artikel 14 van de AI Act vereist dat relevante documentatie wordt bijgehouden als onderdeel van het compliance-proces. Dit kan technische documentatie, gebruiksaanwijzingen, logs of conformiteitsverklaringen omvatten, afhankelijk van de classificatie van het AI-systeem.
Hoe documenteer ik compliance met artikel 14 van de AI Act?
Compliance met artikel 14 van de AI Act documenteert u door een risicobeheersysteem op te zetten, technische documentatie bij te houden, en interne audits uit te voeren. Bewaar alle relevante documenten gedurende de door de AI Act voorgeschreven periode.
Wat is het verschil tussen human-in-the-loop en human-on-the-loop?
Bij human-in-the-loop neemt een mens actief deel aan elke beslissing van het AI-systeem. Bij human-on-the-loop houdt een mens toezicht op het systeem en kan ingrijpen wanneer nodig, maar hoeft niet elke individuele beslissing te accorderen. Artikel 14 vereist dat het type toezicht proportioneel is aan de risico's en mate van autonomie van het systeem.
Moet de persoon die toezicht houdt op AI speciaal opgeleid zijn?
Ja, artikel 14 lid 4 vereist dat de personen die zijn aangewezen voor menselijk toezicht in staat zijn de output correct te interpreteren, de werking van het systeem begrijpen, en zich bewust zijn van automation bias. Artikel 26 lid 2 vereist dat deployers competent, opgeleid en bevoegd personeel aanwijzen.
Wat is automation bias en hoe moet ik daarmee omgaan volgens de AI Act?
Automation bias is de neiging van mensen om AI-output klakkeloos te vertrouwen en eigen oordeel uit te schakelen. Artikel 14 lid 4 punt b vereist expliciet dat toezichthouders zich bewust zijn van deze neiging. In de praktijk betekent dit training, kritisch denken stimuleren en systeemontwerp dat blinde afhankelijkheid van AI-output voorkomt.
Moet ik een kill switch inbouwen in mijn hoog-risico AI-systeem?
Artikel 14 lid 4 punt e vereist dat de toezichthouder in staat is het AI-systeem te stoppen of de output te negeren. Dit hoeft geen fysieke kill switch te zijn, maar er moet een effectief mechanisme zijn waarmee een mens het systeem kan onderbreken, de output kan overrulen of het systeem buiten werking kan stellen.

📬 AI Act Weekly

Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.

Aanmelden