IAMA Quick Scan Checklist
Bepaal of een Impact Assessment Mensenrechten en Algoritmes nodig is
Beantwoord de volgende 10 vragen om te bepalen of een volledige IAMA nodig is voor uw AI-systeem. Tel het aantal "Ja" antwoorden op voor uw score.
Worden er persoonsgegevens verwerkt?
Bijvoorbeeld: BSN, naam, adres, inkomen, gezondheidsgegevens, of andere identificerende informatie over individuen.
Voorbeelden: Uitkeringsaanvragen, vergunningaanvragen, zorgdossiers
Beïnvloedt het systeem beslissingen over individuen?
Het systeem draagt bij aan besluiten die direct of indirect impact hebben op rechten, plichten, of toegang tot diensten van burgers.
Voorbeelden: Toekenning/afwijzing van aanvragen, prioritering van zaken, risico-inschatting
Raakt het systeem kwetsbare groepen?
Personen die extra bescherming verdienen vanwege hun situatie of kenmerken.
Voorbeelden: Minderjarigen, uitkeringsgerechtigden, asielzoekers, mensen met schulden
Is er sprake van profilering of scoring?
Het systeem categoriseert, rankt, of kent scores toe aan individuen of groepen.
Voorbeelden: Risicoscores, fraudescores, prioriteitslijsten, doelgroepsegmentatie
Combineert het systeem data uit meerdere bronnen?
Gegevens worden gekoppeld uit verschillende registers, systemen, of organisaties.
Voorbeelden: Koppeling BRP + schuldenregister, gemeentelijke data + politiedata
Is menselijke tussenkomst beperkt of afwezig?
Het systeem opereert grotendeels autonoom, of menselijke controle is slechts formeel.
Voorbeelden: Automatische beschikkingen, systeem-gegenereerde adviezen die standaard worden overgenomen
Kan het systeem leiden tot uitsluiting van diensten?
Het resultaat van het systeem kan ertoe leiden dat burgers geen toegang krijgen tot voorzieningen, hulp, of diensten.
Voorbeelden: Weigering bijstand, blokkade van voorzieningen, uitsluiting van regelingen
Is het systeem moeilijk uit te leggen aan burgers?
De werking van het systeem is complex en niet eenvoudig in begrijpelijke taal uit te leggen.
Voorbeelden: Machine learning modellen, neurale netwerken, complexe regelcombinaties
Zijn er historische vooroordelen in de trainingsdata?
De data waarop het systeem is gebaseerd kan patronen bevatten die discriminatie reproduceren.
Voorbeelden: Historische handhavingsdata, data uit periodes met ongelijk beleid
Valt het systeem onder Annex III van de AI Act?
De EU AI Act classificeert bepaalde toepassingen als "hoog-risico" in Bijlage III.
Voorbeelden: Toegang tot onderwijs, werkgelegenheid, sociale voorzieningen, rechtshandhaving, migratie
Uw Score
Tel het aantal "Ja" antwoorden:
Een volledige IAMA is waarschijnlijk niet nodig. Overweeg wel een beknopte documentatie van uw afwegingen.
Overweeg een IAMA uit te voeren. Raadpleeg uw FG of juridische afdeling voor advies.
Een IAMA wordt sterk aanbevolen. Betrek relevante stakeholders en experts bij de uitvoering.
Disclaimer: Deze checklist is een hulpmiddel en vervangt geen juridisch advies. Raadpleeg bij twijfel uw Functionaris Gegevensbescherming of juridische afdeling.
Gebaseerd op het IAMA-kader van de Rijksoverheid en de EU AI Act.
Versie januari 2025