Responsible AI Platform
Specifiek voor Gemeenten

AI Act Compliance voor Gemeenten

Bijstandsalgoritmes, fraudedetectie, WMO-indicatie — hoe voldoet uw gemeente aan de AI Act?

Praktische handreikingen voor gemeentelijke AI-systemen: van het invullen van het Algoritmeregister tot het uitvoeren van een IAMA.

Specifiek ontwikkeld voor gemeentelijke praktijk

Belangrijke Deadlines voor Gemeenten

Februari 2025

Verboden AI-praktijken

Sociale scoring en manipulatieve AI-systemen zijn verboden. Controleer uw systemen.

Augustus 2025

Hoog-risico Verplichtingen

Bijstandsalgoritmes en fraudedetectie moeten voldoen aan strikte eisen.

Eind 2025

Algoritmeregister

AP dringt aan op registratie van hoog-risico systemen in het Algoritmeregister.

Hoog-risico AI in Gemeenten

Deze gemeentelijke AI-systemen vallen waarschijnlijk onder de AI Act categorie hoog-risico

Bijstandsalgoritmes

Automatische beoordeling van uitkeringsaanvragen of herindicaties

RechtmatigheidsonderzoekAutomatische afwijzingenPrioritering aanvragen

Fraudedetectie

Risicoprofilering en detectie van onrechtmatig gebruik

BijstandsfraudeWMO-fraudeBelastingfraude

Jeugdzorg Signalering

Vroege signalering van risico's bij gezinnen

RisicomodellenVerwijsindexCasusoverleg ondersteuning

WMO-indicatiestelling

Geautomatiseerde ondersteuning bij zorgindicaties

Automatische toekenningHerindicatieZorgzwaarte bepaling

Direct Aan de Slag

Concrete stappen voor uw gemeente

1

Inventariseer uw AI-systemen

Breng in kaart welke algoritmes en AI-systemen uw gemeente gebruikt. Veel gemeenten ontdekken dat ze meer systemen hebben dan gedacht.

2

Classificeer het risico

Bepaal per systeem of het hoog-risico, beperkt risico of minimaal risico betreft. Onze beslisboom helpt.

3

Registreer in Algoritmeregister

Hoog-risico systemen moeten geregistreerd worden. Onze invulhulp maakt dit eenvoudig.

4

Voer een IAMA uit

Voor impactvolle algoritmes is een Impact Assessment Mensenrechten en Algoritmes verplicht.

Lessen uit de Praktijk

Wat andere gemeenten meemaakten

De Rotterdam-affaire

Hoe een fraudedetectie-algoritme leidde tot discriminatie en wat we ervan kunnen leren.

Les:

Risicoprofilering vereist zorgvuldige toetsing op discriminatie

SyRI en de rechtszaak

Het Systeem Risico Indicatie werd door de rechter verboden wegens mensenrechtenschendingen.

Les:

Transparantie en proportionaliteit zijn juridisch afdwingbaar

Algoritmeregister pioniers

Gemeenten als Amsterdam en Utrecht liepen voorop met transparante algoritmeregistratie.

Les:

Proactieve transparantie bouwt vertrouwen op

Hulp Nodig bij Gemeentelijke AI Compliance?

Wij helpen gemeenten met praktische implementatie van de AI Act.

Gratis oriënterend gesprek van 30 minuten