Artikel 26 van 11323%
Artikel 26: Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico
EU Official:
⏳Van toepassing vanaf 2 aug 2026
Titel III: Hoog-risico AI-systemenInwerkingtreding: 2026-08-02
Officiële tekst
||
Bron: EUR-Lex, Verordening (EU) 2024/1689 — tekst ongewijzigd overgenomen.
📥 Download AI Act (PDF)🎯 Wat betekent dit voor u?
🏭 Aanbieder (Provider)▼
Artikel 26 richt zich primair op deployers, maar als aanbieder moet u hen voorzien van alle informatie die zij nodig hebben om aan hun verplichtingen te voldoen (gebruiksaanwijzing, risico's, beperkingen).
🏢 Deployer (Gebruiksverantwoordelijke)▼
Dit is UW kernverplichting. U moet: (1) technische en organisatorische maatregelen nemen, (2) input-data controleren op relevantie, (3) de werking monitoren, (4) logbestanden bewaren, (5) betrokkenen informeren, en (6) een FRIA uitvoeren indien vereist.
🏪 MKB / Startup▼
Focust op de basis: weet welke hoog-risico AI u gebruikt, train uw medewerkers, en houd contact met uw aanbieder. De meeste verplichtingen kunt u afdekken met goed leveranciersmanagement.
🏛️ Overheid▼
Let extra op de FRIA-verplichting (Art. 27) en de informatieplicht naar burgers. Zorg dat uw algoritmebeschrijving in het Algoritmeregister aansluit bij de vereisten van Art. 26.
✅ Compliance Checklist
- ☐Technische en organisatorische maatregelen getroffen
- ☐Input-data gecontroleerd op relevantie
- ☐Werking van het AI-systeem wordt gemonitord
- ☐Logbestanden worden bewaard conform Art. 19
- ☐Betrokkenen geïnformeerd over AI-gebruik
- ☐FRIA uitgevoerd (indien verplicht, Art. 27)
- ☐Personeel met AI-geletterdheid (Art. 4)
Wil je je voortgang opslaan? Maak een gratis account aan
📖 Relevante overwegingen
Overweging 93Primair
Hoewel aan AI-systemen verbonden risico’s kunnen voortvloeien uit de manier waarop deze systemen zijn vormgegeven, kunnen de risico’s ook het gevolg zijn van de manier waarop ze worden gebruikt. Gebru…
Overweging 94Primair
Elke vorm van verwerking van biometrische gegevens voor rechtshandhavingsdoeleinden door AI-systemen voor biometrische identificatie, moet in overeenstemming zijn met artikel 10 van Richtlijn (EU) 201…
🛠 Relevante tools
⚖️ Gerelateerde handhaving
- •
- •
📝 Gerelateerde blogposts
Kruisverwijzingen
Bijlagen
Veelgestelde vragen
Wat zijn de verplichtingen voor gebruikers van hoog-risico AI?▼
Artikel 26 verplicht deployers (gebruiksverantwoordelijken) onder meer tot: het nemen van technische en organisatorische maatregelen, het uitvoeren van een FRIA (bij publieke organisaties), het monitoren van de werking, en het melden van ernstige incidenten.
Moet ik als deployer ook een FRIA uitvoeren?▼
Publieke organisaties en private organisaties die publieke diensten verlenen moeten een Fundamental Rights Impact Assessment (FRIA) uitvoeren vóór ingebruikname van hoog-risico AI. Dit is geregeld in artikel 27.
Wat moet ik doen bij een incident met hoog-risico AI?▼
Bij ernstige incidenten moet de deployer het incident melden bij de aanbieder en de relevante markttoezichtautoriteit. Dit moet zonder onnodige vertraging gebeuren.
Moet ik als MKB ook voldoen aan artikel 26 van de AI Act?▼
Artikel 26 van de AI Act maakt geen algemene uitzondering voor het MKB. Wel voorziet de AI Act in ondersteunende maatregelen en eventueel verlichte verplichtingen voor kleine en middelgrote ondernemingen, afhankelijk van hun rol in de AI-waardeketen.
Hoe verhoudt artikel 26 van de AI Act zich tot de AVG/GDPR?▼
Artikel 26 van de AI Act werkt aanvullend op de AVG. Waar de AVG persoonsgegevens beschermt, richt de AI Act zich op de veiligheid en betrouwbaarheid van AI-systemen. Organisaties moeten aan beide regelgevingen voldoen wanneer hun AI-systeem persoonsgegevens verwerkt.
Wat zijn de deadlines voor artikel 26 van de AI Act?▼
De AI Act kent een gefaseerde invoering. Verboden AI-praktijken gelden vanaf februari 2025, verplichtingen voor hoog-risico AI-systemen vanaf augustus 2026, en overige bepalingen worden geleidelijk van kracht. De specifieke deadline voor artikel 26 hangt af van de categorie van de verplichting.
Geldt artikel 26 van de AI Act ook voor AI-systemen die ik inkoop?▼
Ja, artikel 26 van de AI Act kan ook relevant zijn wanneer u AI-systemen inkoopt. Als gebruiksverantwoordelijke (deployer) heeft u eigen verplichtingen onder de AI Act, ongeacht of u het systeem zelf heeft ontwikkeld of ingekocht bij een aanbieder.
Wat is het verschil tussen provider en deployer bij artikel 26 van de AI Act?▼
Bij artikel 26 van de AI Act is de provider (aanbieder) degene die het AI-systeem ontwikkelt of op de markt brengt, terwijl de deployer (gebruiksverantwoordelijke) degene is die het systeem onder eigen verantwoordelijkheid inzet. Beide rollen hebben verschillende verplichtingen.
Wat moet ik als deployer doen als mijn AI-leverancier failliet gaat?▼
U blijft als deployer verantwoordelijk voor het naleven van uw verplichtingen, ook als de aanbieder niet meer beschikbaar is. Zorg dat u toegang heeft tot de technische documentatie, gebruiksinstructies en logging van het systeem. Overweeg contractuele afspraken over broncode-escrow en overdracht van verantwoordelijkheden.
Wanneer word ik als deployer zelf aanbieder onder de AI Act?▼
U wordt als deployer zelf aanbieder wanneer u: het AI-systeem onder eigen naam op de markt brengt, het beoogde doel van een al op de markt gebracht systeem wezenlijk wijzigt, of een wezenlijke wijziging aan het systeem aanbrengt. In die gevallen gelden alle aanbiedersverplichtingen.
Moet ik als deployer de input- en outputdata van het AI-systeem bewaren?▼
Ja, artikel 26 lid 6 vereist dat deployers van hoog-risico AI-systemen de automatisch gegenereerde logs bewaren, voor zover deze onder hun controle vallen. De bewaartermijn is minimaal zes maanden, tenzij andere wetgeving (zoals de AVG) een andere termijn voorschrijft.
📬 AI Act Weekly
Ontvang elke week de belangrijkste AI Act ontwikkelingen in je inbox.
Aanmelden