Responsible AI Platform

IAMA Quick Scan Checklist

Bepaal of een Impact Assessment Mensenrechten en Algoritmes nodig is

Beantwoord de volgende 10 vragen om te bepalen of een volledige IAMA nodig is voor uw AI-systeem. Tel het aantal "Ja" antwoorden op voor uw score.

1

Worden er persoonsgegevens verwerkt?

Bijvoorbeeld: BSN, naam, adres, inkomen, gezondheidsgegevens, of andere identificerende informatie over individuen.

Voorbeelden: Uitkeringsaanvragen, vergunningaanvragen, zorgdossiers

Ja
Nee
2

Beïnvloedt het systeem beslissingen over individuen?

Het systeem draagt bij aan besluiten die direct of indirect impact hebben op rechten, plichten, of toegang tot diensten van burgers.

Voorbeelden: Toekenning/afwijzing van aanvragen, prioritering van zaken, risico-inschatting

Ja
Nee
3

Raakt het systeem kwetsbare groepen?

Personen die extra bescherming verdienen vanwege hun situatie of kenmerken.

Voorbeelden: Minderjarigen, uitkeringsgerechtigden, asielzoekers, mensen met schulden

Ja
Nee
4

Is er sprake van profilering of scoring?

Het systeem categoriseert, rankt, of kent scores toe aan individuen of groepen.

Voorbeelden: Risicoscores, fraudescores, prioriteitslijsten, doelgroepsegmentatie

Ja
Nee
5

Combineert het systeem data uit meerdere bronnen?

Gegevens worden gekoppeld uit verschillende registers, systemen, of organisaties.

Voorbeelden: Koppeling BRP + schuldenregister, gemeentelijke data + politiedata

Ja
Nee
6

Is menselijke tussenkomst beperkt of afwezig?

Het systeem opereert grotendeels autonoom, of menselijke controle is slechts formeel.

Voorbeelden: Automatische beschikkingen, systeem-gegenereerde adviezen die standaard worden overgenomen

Ja
Nee
7

Kan het systeem leiden tot uitsluiting van diensten?

Het resultaat van het systeem kan ertoe leiden dat burgers geen toegang krijgen tot voorzieningen, hulp, of diensten.

Voorbeelden: Weigering bijstand, blokkade van voorzieningen, uitsluiting van regelingen

Ja
Nee
8

Is het systeem moeilijk uit te leggen aan burgers?

De werking van het systeem is complex en niet eenvoudig in begrijpelijke taal uit te leggen.

Voorbeelden: Machine learning modellen, neurale netwerken, complexe regelcombinaties

Ja
Nee
9

Zijn er historische vooroordelen in de trainingsdata?

De data waarop het systeem is gebaseerd kan patronen bevatten die discriminatie reproduceren.

Voorbeelden: Historische handhavingsdata, data uit periodes met ongelijk beleid

Ja
Nee
10

Valt het systeem onder Annex III van de AI Act?

De EU AI Act classificeert bepaalde toepassingen als "hoog-risico" in Bijlage III.

Voorbeelden: Toegang tot onderwijs, werkgelegenheid, sociale voorzieningen, rechtshandhaving, migratie

Ja
Nee

Uw Score

Tel het aantal "Ja" antwoorden:

0-2 keer Ja — Laag risico

Een volledige IAMA is waarschijnlijk niet nodig. Overweeg wel een beknopte documentatie van uw afwegingen.

3-5 keer Ja — Matig risico

Overweeg een IAMA uit te voeren. Raadpleeg uw FG of juridische afdeling voor advies.

6-10 keer Ja — Hoog risico

Een IAMA wordt sterk aanbevolen. Betrek relevante stakeholders en experts bij de uitvoering.

Disclaimer: Deze checklist is een hulpmiddel en vervangt geen juridisch advies. Raadpleeg bij twijfel uw Functionaris Gegevensbescherming of juridische afdeling.

Gebaseerd op het IAMA-kader van de Rijksoverheid en de EU AI Act.

Versie januari 2025