Responsible AI Platform
🏭Kritieke infrastructuur

Het verhaal van GridSafe

Hoe een netbeheerder ontdekte dat hun AI letterlijk de stroom kan uitschakelen

Fictief scenario — gebaseerd op realistische situaties

Scroll
01

De Aanleiding

Hoe het begon

📧

GridSafe had jarenlang AI ingezet voor netbeheer. Het systeem voorspelde storingen, optimaliseerde load balancing, en nam soms automatisch beslissingen om netoverbelasting te voorkomen. Het werkte uitstekend — tot de AI Act kwam.

Kritieke infrastructuur is expliciet benoemd als hoog-risico in de AI Act. AI-systemen die essentiële diensten kunnen verstoren — energie, water, transport — vallen onder de strengste eisen. En GridPredict AI had daadwerkelijk de mogelijkheid om delen van het net af te schakelen.

"Als onze AI een fout maakt, zitten honderdduizenden huishoudens in het donker." De technisch directeur besefte de implicaties pas toen hij Annex III las.
02

De Vragen

Wat moesten ze uitzoeken?

1Vraag

Waarom is energie-AI kritieke infrastructuur onder de AI Act?

Het team ging de wettekst door. Annex III noemt expliciet AI-systemen bedoeld voor gebruik als "safety component" in het beheer van kritieke infrastructuur, inclusief elektriciteitsvoorziening.

💡 Het inzicht

De rationale is helder: een fout in energie-AI kan maatschappij-ontwrichtend zijn. Blackouts treffen ziekenhuizen, verkeerslichten, koelinstallaties. De AI Act erkent dat AI in deze context even kritisch is als de fysieke infrastructuur zelf.

🌍 Waarom dit ertoe doet

Europa heeft meerdere grootschalige blackouts meegemaakt. De toenemende complexiteit van het net — met decentrale opwekking, EV-lading, en dynamische tarieven — maakt AI essentieel maar ook riskant. Toezichthouders als ACM en RDI volgen dit nauwlettend.

2Vraag

Welke controles moeten we inbouwen?

GridPredict AI nam soms autonome beslissingen: het kon transformatoren afschakelen, belasting herverdelen, of noodprotocollen activeren. De vraag was: welke van deze acties moesten menselijke goedkeuring vereisen?

💡 Het inzicht

Het team ontwikkelde een impactmatrix. Reversibele acties met lage impact konden automatisch. Acties die meer dan 1000 huishoudens raakten vereisten menselijke bevestiging. Noodafschakelingen hadden een twee-persoons goedkeuring nodig — behalve bij direct gevaar.

🌍 Waarom dit ertoe doet

De AI Act vraagt om proportioneel menselijk toezicht. Dit betekent niet dat AI nooit autonoom mag handelen, maar dat de controles evenredig zijn aan het risico. Voor kritieke infrastructuur is die lat hoog.

3Vraag

Hoe garanderen we menselijk toezicht op real-time beslissingen?

Het dilemma was timing. Sommige netproblemen vereisen reactie binnen milliseconden. Geen mens kan zo snel beslissen. Maar de AI Act vraagt om menselijk toezicht. Hoe los je dat op?

💡 Het inzicht

De oplossing was een combinatie van pre-approval en post-hoc review. Menselijke operators stelden de parameters in waarbinnen de AI mocht opereren. Elke autonome beslissing werd gelogd en onderdeel van dagelijkse review. Afwijkingen triggeren alerts.

🌍 Waarom dit ertoe doet

Dit is een fundamentele spanning in AI-governance: snelheid versus controle. De AI Act erkent dit door te focussen op "meaningful" oversight — niet per se real-time, maar wel effectief. Het gaat om het systeem, niet elke individuele beslissing.

4Vraag

Wat als de AI een cascade-effect veroorzaakt?

Het nachtmerriescenario: de AI neemt een beslissing die, door onvoorziene interacties, een cascade van storingen veroorzaakt. Een lokale afschakeling die een regionale blackout wordt. Hoe mitigeer je dat?

💡 Het inzicht

Het team implementeerde "blast radius" limieten. Elke AI-beslissing had een maximale impact die het mocht veroorzaken. Daarbovenop kwam een independent monitoring systeem dat AI-beslissingen in real-time evalueerde en kon overrulen als patronen op cascades wezen.

🌍 Waarom dit ertoe doet

Cascade-effecten zijn een erkend risico in complexe systemen. De AI Act vraagt om robuust risicomanagement, inclusief scenario-analyse van worst-case situaties. Voor energie-infrastructuur betekent dit samenwerking met toezichthouders en netbeheerders in heel Europa.

03

De Reis

Stap voor stap naar compliance

Stap 1 van 6
🔍

De scope-analyse

Een externe audit identificeerde drie AI-systemen die onder Annex III vielen. GridPredict AI was de meest kritieke.

Stap 2 van 6
📊

Impactmatrix ontwikkelen

Het team categoriseerde alle mogelijke AI-acties naar impact en reversibiliteit. Dit vormde de basis voor het governance-framework.

Stap 3 van 6
👁️

Human oversight herontwerp

Het controlesysteem werd herzien. Welke beslissingen kon de AI nemen, welke vereisten menselijke goedkeuring?

Stap 4 van 6
🛡️

Blast radius implementatie

Technische limieten werden ingebouwd die voorkomen dat een enkele AI-beslissing teveel impact kon hebben.

Stap 5 van 6
📈

Monitoring systeem

Een onafhankelijk systeem werd geïmplementeerd dat AI-beslissingen in real-time monitort en anomalieën detecteert.

Stap 6 van 6
🏛️

Toezichthouder engagement

GridSafe deelde hun aanpak proactief met ACM en het ministerie van EZK. Transparantie bouwde vertrouwen.

04

De Obstakels

Wat ging er mis?

Obstakel 1

Uitdaging

AI moest soms sneller reageren dan mensen kunnen beslissen

Oplossing

Pre-approval parameters met post-hoc review en anomalie-detectie

Obstakel 2

Uitdaging

Risico op cascade-effecten door AI-beslissingen

Oplossing

Blast radius limieten en onafhankelijke real-time monitoring

Obstakel 3

Uitdaging

Geen duidelijke standaarden voor AI in kritieke infrastructuur

Oplossing

Proactieve samenwerking met toezichthouders om best practices te ontwikkelen

De AI Act dwong ons om te denken over scenario's die we liever negeerden. Ons systeem is nu veiliger — niet ondanks de regulering, maar dankzij.
Ir. Marcus Hendriks, CTO, GridSafe
05

De Lessen

Wat kunnen we hiervan leren?

Les 1 / 4

Energie-AI is kritieke infrastructuur

AI die essentiële diensten kan verstoren valt onder de strengste eisen van de AI Act.

Les 2 / 4
⏱️

Snelheid en controle kunnen coëxisteren

Pre-approval parameters met post-hoc review biedt betekenisvol toezicht zonder real-time bottlenecks.

Les 3 / 4
🛡️

Beperk de blast radius

Technische limieten op AI-impact voorkomen dat enkele beslissingen catastrofale gevolgen hebben.

Les 4 / 4
🤝

Werk samen met toezichthouders

Proactieve engagement bouwt vertrouwen en helpt standaarden te vormen.

Beheert jouw AI kritieke infrastructuur?

Ontdek wat de AI Act betekent voor energie, water, transport en andere essentiële diensten.