Responsible AI Platform
Artikel 14 van 11312%
🇬🇧 English

Artikel 14: Menselijk toezicht

EU Official:
UpcomingVan toepassing vanaf 2 aug 2026
Titel III: Hoog-risico AI-systemenInwerkingtreding: 2026-08-02

Artikel 14 is de kernbepaling over menselijk toezicht bij hoog-risico AI-systemen. De bepaling maakt toezicht concreet: mensen moeten beperkingen begrijpen, automation bias herkennen, output kunnen overrulen en waar nodig het systeem kunnen onderbreken.

Officiële tekst

||

Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.

Download AI Act (PDF)

🎯 Wat betekent dit voor u?

Aanbieder (Provider)+
Ontwerp het hoog-risico AI-systeem zo dat toezicht tijdens gebruik feitelijk kan werken: een begrijpelijke interface, monitoring op afwijkingen, uitleg bij output en technische mogelijkheden om output te negeren, te overrulen of het systeem te stoppen. Leg in de gebruiksaanwijzing uit welke oversight-maatregelen de deployer moet implementeren.
Deployer (Gebruiksverantwoordelijke)+
Wijs bevoegde en getrainde personen aan die het systeem kunnen monitoren, output kunnen interpreteren en tijdig kunnen ingrijpen. Maak dit onderdeel van uw werkinstructies: wanneer mag AI-output worden gevolgd, wanneer moet worden afgeweken, en hoe wordt ingrijpen gelogd?
🏪 MKB / Startup+
Koopt u een hoog-risico AI-systeem in, vraag dan expliciet naar de Artikel 14-controls: uitleg over beperkingen, override- en stopmogelijkheden, logbestanden en trainingseisen. Begin met een korte AI-inventarisatie en leg vast wie eigenaar is van menselijk toezicht.
Overheid+
Voor publieke inzet is menselijk toezicht geen papieren controlepunt. Combineer Artikel 14 met Artikel 26 en 27: bevoegd personeel, duidelijke besluitroutes, FRIA/IAMA-documentatie, logging en bezwaar- of klachtenprocedures voor burgers.

Compliance checklist

  • Toezichtmaatregelen zijn proportioneel aan risico, autonomie en gebruikscontext
  • Menselijke toezichthouders begrijpen mogelijkheden en beperkingen van het systeem
  • Automation bias is opgenomen in training en werkinstructies
  • Output kan worden genegeerd, overruld of teruggedraaid
  • Stop- of onderbrekingsprocedure is beschikbaar en getest
  • Deployer heeft competente, getrainde en bevoegde toezichthouders aangewezen

Wil je je voortgang opslaan? Maak een gratis account aan

Relevante overwegingen

🛠 Relevante tools

Gerelateerde handhaving

Nog geen handhavingsacties voor dit artikel. Volg ontwikkelingen via de Enforcement Tracker.

📝 Gerelateerde blogposts

Kruisverwijzingen

Overwegingen

Veelgestelde vragen

Wat vereist Artikel 14 van Verordening (EU) 2024/1689?+
Artikel 14 vereist dat hoog-risico AI-systemen zo worden ontworpen en ontwikkeld dat natuurlijke personen ze effectief kunnen overzien tijdens gebruik. Het toezicht moet risico's voor gezondheid, veiligheid en grondrechten voorkomen of minimaliseren.
Wie is verantwoordelijk voor menselijk toezicht: provider of deployer?+
De provider moet toezichtmaatregelen identificeren en, waar technisch haalbaar, inbouwen of als deployer-maatregelen beschrijven voordat het systeem op de markt komt of in gebruik wordt genomen. De deployer moet het systeem volgens de instructies gebruiken en op grond van Artikel 26 lid 2 competent, getraind en bevoegd personeel aanwijzen.
Wat moet een menselijke toezichthouder kunnen?+
Een toezichthouder moet, passend en proportioneel, de mogelijkheden en beperkingen van het systeem begrijpen, de werking monitoren, automation bias herkennen, output interpreteren, besluiten output niet te gebruiken, output overrulen of terugdraaien, en kunnen ingrijpen of onderbreken via een stopprocedure of vergelijkbare maatregel.
Is een kill switch verplicht onder Artikel 14?+
Artikel 14 lid 4 punt e vereist, waar passend en proportioneel, dat een toezichthouder het systeem kan onderbreken via een stopknop of vergelijkbare procedure. De AI Act schrijft niet voor dat elk systeem exact dezelfde fysieke kill switch moet hebben.
Wat is automation bias?+
Automation bias is de neiging om te sterk te vertrouwen op AI-output, vooral wanneer een systeem informatie of aanbevelingen geeft voor beslissingen door natuurlijke personen. Artikel 14 lid 4 punt b noemt dit expliciet als aandachtspunt voor menselijke toezichthouders.
Hoe hangt Artikel 14 samen met Artikel 13 en Artikel 26?+
Artikel 13 vereist dat gebruiksinstructies informatie bevatten over menselijke toezichtmaatregelen en interpretatie van output. Artikel 26 verplicht deployers om het systeem volgens die instructies te gebruiken en competent, getraind en bevoegd personeel voor toezicht aan te wijzen.
Vanaf wanneer geldt Artikel 14 van de AI Act?+
Artikel 14 hoort bij de eisen voor hoog-risico AI-systemen. Voor de meeste hoog-risico verplichtingen is de praktische toepassingsdatum 2 augustus 2026, met specifieke overgangsregels afhankelijk van het systeem en de categorie.
Geldt Artikel 14 ook voor AI-systemen die ik inkoop?+
Ja. Als een ingekocht systeem hoog-risico is en in de EU-context wordt gebruikt, blijft Artikel 14 relevant. Vraag de leverancier om de toezichtmaatregelen, beperkingen, override- en stopmogelijkheden, logging en trainingseisen die bij het systeem horen.
Gelden er extra regels voor biometrische identificatie?+
Ja. Voor bepaalde biometrische identificatiesystemen uit Bijlage III punt 1(a) mag een actie of beslissing op basis van identificatie in beginsel pas worden genomen na afzonderlijke verificatie door ten minste twee bevoegde, getrainde en gemachtigde natuurlijke personen, tenzij specifieke regels voor rechtshandhaving, migratie, grenscontrole of asiel dat disproportioneel achten.