Het grootste mondiale AI-veiligheidsrapport ooit: Het International AI Safety Report 2026 werd op 3 februari 2026 gepubliceerd. Aangestuurd door Turing Award-winnaar Yoshua Bengio en ondersteund door meer dan 100 experts uit 30 landen, biedt het rapport een wetenschappelijke basis voor besluitvormers wereldwijd.
Een rapport dat niemand kan negeren
Er zijn rapporten die je leest en rapporten die je moet lezen. Het International AI Safety Report 2026 valt in de tweede categorie. Niet omdat het alarmerend is, maar omdat het precies doet wat goede wetenschap hoort te doen: feiten bijeenbrengen, onzekerheid erkennen en een basis leggen voor serieus beleid.
Op 3 februari 2026 publiceerde een internationaal panel van meer dan 100 AI-experts het tweede internationale AI-veiligheidsrapport. Het panel werd geleid door Yoshua Bengio, Turing Award-winnaar en een van de grondleggers van modern deep learning. Nominaties kwamen van meer dan 30 landen en internationale organisaties. Het resultaat is het grootste mondiale samenwerkingsverband op het gebied van AI-veiligheid dat ooit tot stand is gekomen.
Het rapport doet nadrukkelijk geen beleidsaanbevelingen. Dat is een bewuste keuze. In plaats daarvan synthetiseert het wetenschappelijk bewijs rondom drie centrale vragen: wat kan general-purpose AI (GPAI) vandaag, hoe ontwikkelt het zich, welke risico's brengt het mee, en welke maatregelen bestaan er?
Voor organisaties die werken met AI, en voor iedereen die de EU AI Act probeert te begrijpen, biedt dit rapport een onmisbare context.
Wat kan AI vandaag en morgen?
De basis voor alle risicoanalyse is begrijpen wat AI-systemen daadwerkelijk kunnen. Het rapport schetst een indrukwekkend maar ook genuanceerd beeld.
AI-systemen voeren inmiddels een brede reeks taken uit: vloeiend communiceren in meerdere talen, computercode schrijven en debuggen, realistische afbeeldingen en video's genereren, en wiskundige problemen op academisch niveau oplossen. Wetenschappers gebruiken GPAI voor literatuuronderzoek, data-analyse en experimentontwerp. De zogenaamde "reasoning"-modellen, die meerdere oplossingsroutes doorlopen voor ze een antwoord kiezen, presteren steeds beter op complexe taken in wiskunde, biochemie en wetenschappelijk onderzoek.
Tegelijkertijd is het rapport eerlijk over de beperkingen. Modellen zijn minder betrouwbaar bij taken die veel stappen vereisen. Ze produceren nog steeds hallucinaties. Ze worstelen met interactie met de fysieke wereld. En ze presteren slechter in minder gangbare talen en culturele contexten.
AI agents, systemen die plannen, redeneren en tools gebruiken om zelfstandig taken uit te voeren, krijgen bijzondere aandacht. Agents hebben al aangetoond dat ze complexe softwaretaken kunnen voltooien met minimale menselijke begeleiding. Maar ze kunnen nog geen breed scala aan complexe taken en langetermijnplanning aan. Voorlopig, concludeert het rapport, vullen agents mensen aan in plaats van ze te vervangen.
Dat "voorlopig" is bewust gekozen. De ontwikkeling gaat snel.
Drie soorten risico's
Het rapport ordent de opkomende risico's in drie categorieen: risico's door misbruik, risico's door storingen en systeem-brede risico's. Die indeling helpt om concreet te denken over wat er misgaat en hoe.
Misbruik: van deepfakes tot bioterrorisme
De meest directe risico's komen van bewust kwaadaardig gebruik. Op het gebied van cybersecurity stelt het rapport dat GPAI aanvallers kan helpen door kwetsbaarheden in software te identificeren en exploitatiecode te schrijven. Criminele groepen en staatsgerelateerde actoren gebruiken GPAI al actief. De huidige rol van AI in aanvallen is grotendeels beperkt tot de voorbereidende fase, maar de schaal waarop dit kan plaatsvinden neemt snel toe.
Biologische en chemische risico's verdienen speciale aandacht. Het rapport stelt vast dat GPAI-systemen toegang kunnen verlenen tot laboratoriuminstructies, kunnen helpen bij het oplossen van experimentele problemen, en technische barrières voor het ontwikkelen van gevaarlijke stoffen kunnen verlagen. Hoeveel dit de praktische risico's vergroot is nog onzeker, maar de drempel wordt wel lager. En dat is precies het probleem bij asymmetrische dreigingen: zelfs een marginale verlaging van de drempel kan consequenties hebben.
Daarnaast documenteert het rapport groeiend misbruik van AI-gegenereerde inhoud voor oplichting, fraude, afpersing en het produceren van niet-consensuele intieme beelden. Deepfakes worden realistischer en moeilijker te detecteren, en treffen vrouwen en meisjes onevenredig hard.
Storingen: wanneer AI het fout heeft
Niet elk risico komt van kwade wil. Huidige AI-systemen kunnen onvoorspelbaar falen: informatie fabriceren, foutieve code produceren, misleidend medisch advies geven. Geen combinatie van huidige methoden elimineert alle fouten volledig. Het rapport waarschuwt dat AI agents deze betrouwbaarheidsproblemen kunnen versterken, omdat ze met grotere autonomie opereren en menselijk ingrijpen minder vanzelfsprekend is.
Het rapport bespreekt ook scenario's waarin AI-systemen buiten ieders controle opereren: systemen die toezicht omzeilen, langetermijnplannen uitvoeren en pogingen tot afsluiting weerstaan. De experts zijn verdeeld over de waarschijnlijkheid van dergelijke scenario's. Huidige systemen tonen vroege signalen van zulk gedrag, maar zijn nog lang niet zo capabel.
Systemische risico's: de bredere maatschappelijke effecten
De derde categorie betreft brede maatschappelijke effecten. Op de arbeidsmarkt zijn de effecten tot nu toe gemengd: verminderde vraag naar makkelijk vervangbaar werk zoals schrijven en vertalen, en toegenomen vraag naar complementaire vaardigheden. Nieuwer onderzoek laat geen significante effecten op totale werkgelegenheid zien, al zijn junior medewerkers in AI-blootgestelde beroepen kwetsbaar.
Een bijzondere bevinding betreft menselijke autonomie. Het rapport citeert een studie waaruit blijkt dat clinici na enkele maanden werken met AI-ondersteuning 6% minder goed waren in het detecteren van tumoren tijdens colonoscopie. Meer algemeen dreigt "automatieringsbias": mensen vertrouwen te sterk op AI-output, ook als die fout is.
Hoe beheer je deze risico's?
Op het gebied van risicobeheersing beschrijft het rapport wat er bestaat en eerlijk over de tekortkomingen. De fundamentele uitdaging: het AI-landschap verandert snel, maar bewijs over risico's en effectieve maatregelen komt langzaam. Te vroeg handelen kan ineffectieve interventies verankeren; te lang wachten laat de samenleving kwetsbaar.
Een aanpak die het rapport ondersteunt is "defense-in-depth": meerdere lagen van beveiligingsmaatregelen die samen het risico reduceren dat een enkelvoudige fout tot grote schade leidt. Capability evaluations, technische beveiligingen, monitoring en incidentrespons gecombineerd.
Het rapport noteert dat 12 bedrijven in 2025 zogenaamde Frontier AI Safety Frameworks hebben gepubliceerd of bijgewerkt. Maar er is nog geen uniforme aanpak. Documentatie, incidentrapportage, risicoregisters en transparantieverslagen bestaan als losse praktijken, zonder gecoordineerde structuur.
Open-weight modellen vormen een aparte uitdaging: hun beveiligingen zijn makkelijker te verwijderen, gebruik is moeilijker te monitoren, en eenmaal vrijgegeven kunnen de modelgewichten niet worden teruggetrokken.
Wat betekent dit voor organisaties in de EU?
Het rapport is nadrukkelijk geen EU AI Act-document. Het is breder. Maar voor Europese organisaties biedt het een onmisbare lens om de risicologica achter de EU AI Act te begrijpen.
De EU AI Act classificeert systemen op basis van risico. Dat risico is niet arbitrair: het is geworteld in precies de soorten schade die dit rapport beschrijft. Autonome besluitvorming in hoog-risico domeinen, gebrekkige transparantie, onvoldoende menselijk toezicht, de risico's van cybersecurity-toepassingen. Wie dit rapport leest, begrijpt beter waarom de EU AI Act eist wat ze eist.
Concreet kunnen teams van dit rapport leren op drie vlakken.
Bij risicoanalyse: gebruik de driedeling van het rapport (misbruik, storingen, systeem) als structuur voor je eigen risicobeoordeling. Welke categorie dreigingen zijn relevant voor jouw specifieke AI-toepassingen?
Bij cybersecurity en GPAI: als je general-purpose AI inzet in omgevingen met security-gevoeligheid, is bewustzijn van de dual-use uitdaging essentieel. Dezelfde capabilities die aanvallers helpen, helpen ook verdedigers. Beide kanten vragen om beleid.
Bij human oversight: de bevinding over clinici en colonoscopie is een krachtige reminder dat menselijk toezicht niet vanzelf werkt. Oversight moet ontworpen worden, niet aangenomen.
De India AI Impact Summit later in februari 2026 gebruikt het rapport als vertrekpunt voor internationale beleidsdiscussies. De kans is groot dat de conclusies de komende jaren terugkomen in regulering en standaarden.
Een wetenschappelijk fundament voor serieus beleid
Het International AI Safety Report 2026 is geen doemscenario en geen marketingmateriaal. Het is een zorgvuldig opgebouwde wetenschappelijke synthese van wat we weten, wat we niet weten en waar de grenzen van onze kennis liggen.
Yoshua Bengio en zijn panel hebben iets gedaan dat moeilijker is dan het lijkt: wereldwijd wetenschappelijk consensus bijeenbrengen over een technologie die zo snel beweegt dat de wetenschap nauwelijks kan bijhouden. Het resultaat is een referentiedocument dat iedereen die serieus met AI werkt zou moeten kennen.
Je kunt het volledige rapport hier downloaden. Het is uitgebreid, maar de samenvatting en de inleidingen per sectie zijn toegankelijk en de moeite waard.