Directe dreiging: Het Pentagon gaf Anthropic een ultimatum: verwijder de veiligheidsgrens op massa-surveillance en volledig autonome wapens, of verlies contracten ter waarde van $200 miljoen. Dario Amodei weigert. Deadline: vrijdag 27 februari 2026, 17:01 ET.
Een conflict dat er al lang aan zat te komen
Er zijn momenten waarop een techbedrijf moet kiezen welke principes het echt meent. Voor Anthropic is dat moment nu aangebroken.
Op 26 februari 2026 publiceerde CEO Dario Amodei een verklaring die weinig aan duidelijkheid te wensen overlaat. Het Pentagon eist dat Anthropic twee specifieke veiligheidsgrenzen uit zijn contracten schrapt. Amodei weigert. En hij doet dat niet stilzwijgend of diplomatiek vaag, maar met een openbare verklaring die elke lezer, elke partner, elke concurrent en elke toezichthouder ter wereld kan lezen.
Dat is opmerkelijk. Niet alleen vanwege de inhoud, maar vanwege het feit dat het uberhaupt zo ver is gekomen.
Anthropic is geen kleine speler die zich verzet tegen een grote overheid. Het is het bedrijf dat als eerste zijn modellen heeft uitgerold op de geclassificeerde netwerken van de Amerikaanse overheid, als eerste aangepaste modellen leverde voor nationale veiligheidsklanten, en als eerste actief is in de nationale laboratoria van de VS. Claude wordt ingezet voor inlichtingenanalyse, operationele planning en cyberoperaties. De samenwerking met het Pentagon is niet ondanks Anthropic's veiligheidsmissie; ze is er, in Amodei's ogen, juist onderdeel van.
En toch staat het bedrijf nu op een kruispunt dat niemand gemakkelijk had kunnen voorzien.
Wat het Pentagon precies vraagt
De kern van het conflict is precies en beperkt. Het gaat niet om de vraag of Anthropic met het leger mag samenwerken. Dat doet het al, uitgebreid en op de meest gevoelige niveaus. Het gaat om twee specifieke gebruiksscenario's die Anthropic zegt nooit in zijn contracten op te willen nemen.
Massa-surveillance van eigen burgers. Anthropic ondersteunt het gebruik van AI voor rechtmatige buitenlandse inlichtingenverzameling en contraspionage. Maar het grootschalig surveilleren van Amerikanen op basis van bewegingsdata, surfgedrag en sociale verbanden, zonder gerechtelijk bevel en op industriele schaal, beschouwt het bedrijf als een fundamentele aantasting van democratische waarden. Amodei wijst erop dat huidige wetgeving de overheid al toestaat zulke data te kopen van commerciele aanbieders zonder rechterlijk toezicht, iets wat de Intelligence Community zelf heeft erkend als privacygevoelig. AI maakt het mogelijk om die versnipperde, schijnbaar onschuldige datapunten samen te voegen tot een volledig portret van iemands leven, automatisch en op massale schaal.
Volledig autonome wapens. Anthropic maakt een onderscheid dat veel beleidsmakers over het hoofd zien. Gedeeltelijk autonome wapensystemen, zoals drones in Ukraine die worden ingezet, zijn legitiem en soms noodzakelijk. Maar systemen die zonder enige menselijke tussenkomst zelf doelen selecteren en aanvallen zijn een andere categorie. Amodei's punt is niet ideologisch maar technisch: de huidige generatie AI-modellen is simpelweg niet betrouwbaar genoeg om leven-en-dood beslissingen te automatiseren. Hij bood aan om gezamenlijk met het Pentagon te werken aan R&D om de betrouwbaarheid van autonome systemen te verbeteren. Dat aanbod werd niet geaccepteerd.
De dreigingen van het Pentagon
Het antwoord van Defense Secretary Pete Hegseth was aanzienlijk minder subtiel. Volgens NPR dreigde Hegseth bij een ontmoeting met Amodei met drie escalatieniveaus.
Ten eerste: annulering van het $200 miljoen contract. Voor een bedrijf met $14 miljard aan omzet is dat financieel behapbaar, maar symbolisch vergaand.
Ten tweede: het stempel "supply chain risk". Dat label is tot nu toe gereserveerd voor buitenlandse vijanden, zoals het Chinese Huawei. Het zou betekenen dat andere Pentagon-aannemers verboden wordt Anthropic-tools te gebruiken, en in het ergste geval dat elke samenwerking met de Amerikaanse overheid onmogelijk wordt.
Ten derde: inzet van de Defense Production Act. Die wet geeft de president de bevoegdheid om bedrijven te dwingen prioriteit te geven aan de productie voor nationale defensie. De interpretatie hier zou zijn: Anthropic gedwongen zijn veiligheidsgrenzen te verwijderen.
Woordvoerder Sean Parnell van het Pentagon zette de deadline op X: "They have until 5:01 PM ET on Friday to decide. Otherwise, we will terminate our partnership with Anthropic and deem them a supply chain risk."
De logische tegenspraak in het midden
Politico noemde de combinatie van dreigingen "inherently contradictory". Geopolitiek analist Geoffrey Gertz van het Center for a New American Security verwoordde het scherp in een gesprek met NPR: "It's this funny mix where they both are such a risk that they need to be kicked out of all systems, and so essential that they need to be compelled to be part of the system no matter what."
Amodei wees zelf ook op de tegenstrijdigheid. Eén dreiging bestempelt Anthropic als een veiligheidsrisico. De andere beschouwt Claude als essentieel voor nationale veiligheid. Beide kunnen niet tegelijk waar zijn.
De centrale paradox: Het Pentagon beweert tegelijk dat Anthropic een gevaar is voor de nationale veiligheid (supply chain risk) en dat Anthropic's AI onmisbaar is voor diezelfde nationale veiligheid (Defense Production Act). Die twee posities zijn logisch onverenigbaar.
Antropic als eerste, nu als enige
Uit de berichtgeving bij TechCrunch en The Guardian blijkt dat Anthropic tot deze week de enige frontier AI-lab was met goedkeuring voor gebruik in geclassificeerde militaire systemen. Elon Musks xAI sloot eerder deze week een vergelijkbaar akkoord, maar dan zonder de veiligheidsgrenzen die Anthropic verdedigt.
Die context maakt de druk begrijpelijk. Het Pentagon wil niet afhankelijk zijn van een leverancier die beperkingen oplegt. En met xAI als alternatief in zicht, is de onderhandelingspositie van Anthropic verzwakt. Maar Amodei kiest voor het principe boven het contract.
"Our strong preference is to continue to serve the Department and our warfighters, with our two requested safeguards in place," schrijft hij. "Should the Department choose to offboard Anthropic, we will work to enable a smooth transition to another provider."
De EU AI Act heeft dit al besloten
Hier wordt het verhaal voor Europese lezers bijzonder interessant.
De twee grenzen die Anthropic verdedigt zijn in Europa geen bedrijfsbeleid. Het zijn wettelijke verboden.
Massa-surveillance via biometrische identificatie in publieke ruimtes valt onder Artikel 5 van de EU AI Act, dat een expliciete lijst van verboden AI-praktijken bevat. Real-time biometrische identificatie in de openbare ruimte voor wetshandhavingsdoeleinden is verboden, met smalle uitzonderingen voor ernstige misdrijven, die bovendien rechterlijk toezicht vereisen. AI-systemen die individueel gedrag automatisch in kaart brengen om voorspellende profielen te bouwen vallen ook onder dit verbod.
AI-systemen zonder betekenisvolle menselijke controle worden in de EU AI Act consequent aangemerkt als hoog-risico systemen die aan strenge eisen moeten voldoen. Voor militaire toepassingen is de redenering identiek: systemen die leven-en-dood beslissingen nemen zonder menselijke tussenkomst zijn in het Europese kader categorisch problematisch.
Europa heeft, met andere woorden, de grenzen wettelijk vastgelegd die Anthropic nu vrijwillig verdedigt onder directe overheidsdruk. Dat is een opmerkelijk verschil in aanpak.
Europees vs. Amerikaans kader: In de EU zijn massa-surveillance via biometrie en AI-systemen zonder menselijke controle verboden bij wet (EU AI Act, Artikel 5). In de VS zijn ze onderwerp van contractonderhandelingen tussen een AI-bedrijf en het ministerie van Defensie.
Wat Artikel 5 EU AI Act precies verbiedt
Artikel 5 van de EU AI Act verbiedt een specifieke set AI-praktijken die als onaanvaardbaar worden beschouwd, ongeacht de toepassing of het doel.
De verboden omvatten systemen die op onbewuste wijze gedrag manipuleren, systemen die kwetsbare groepen exploiteren, biometrische classificatie op basis van beschermde kenmerken, emotieherkenning op werkplekken en onderwijsinstellingen, en als meest directe parallel met het Pentagon-conflict: real-time biometrische identificatie in publieke ruimtes voor wetshandhaving.
Er is ook een verbod op AI-systemen voor het evalueren of classificeren van personen op basis van sociaal gedrag of persoonlijkheidskenmerken over langere periodes, precies het soort geconsolideerde profilering waarvoor Amodei waarschuwt in zijn verklaring.
De wet erkent dat AI dit soort profilering nu mogelijk maakt op een schaal en met een snelheid die eerder niet bestond. Dat is de wetgevende logica achter het verbod.
Wat dit betekent voor de rest van de AI-sector
De uitkomst van dit conflict heeft gevolgen die verder reiken dan Anthropic alleen.
Als het Pentagon zijn dreigingen waarmaakt, geeft het een duidelijk signaal aan alle andere AI-bedrijven: veiligheidsgrenzen zijn onderhandelbaar onder voldoende druk. OpenAI, Google en xAI leveren ook aan het Pentagon. Zij hebben zich niet uitgesproken over wat zij toestaan en wat niet.
Als Anthropic standhoudt, wordt het een precedent voor de vraag of private AI-bedrijven legitieme grenzen kunnen stellen aan overheidsgebruik van hun technologie, niet als politieke obstakels, maar als technische en ethische minimumvereisten.
Dario Amodei heeft dat argument zorgvuldig gepositioneerd. Hij betwist niet het recht van het Pentagon om militaire beslissingen te nemen. Hij zegt dat zijn bedrijf weigert een product te leveren dat op een specifieke manier niet werkt, namelijk betrouwbaar genoeg voor volledig autonome dodelijke beslissingen.
Dat is een subtiel maar belangrijk onderscheid. Het is geen politieke weigering. Het is een technische claim: we kunnen geen product leveren dat doet wat u vraagt op een manier die verantwoord is.
De Defense Production Act als optie
De mogelijke inzet van de Defense Production Act verdient aparte aandacht. Die wet, oorspronkelijk ontworpen voor wartime productie van fysieke goederen, geeft de president brede bevoegdheden om industriele productie te sturen ten behoeve van nationale defensie.
De interpretatie dat die wet van toepassing zou zijn op softwarebedrijven, en specifiek op AI-veiligheidsgrenzen, is zonder precedent. Juristen zullen hierover van mening verschillen. Maar het signaal is duidelijk: als de huidige wetgeving niet voldoet, zoekt het Pentagon naar andere instrumenten.
Geoffrey Gertz van het Center for a New American Security wees erop dat beide dreigingsinstrumenten samen logisch onhoudbaar zijn. Maar politiek is dat geen belemmering gebleken.
Een spiegel voor Europa
Er is een reden waarom dit verhaal ook voor Europese AI-governance relevant is, voorbij de juridische parallellen.
Het laat zien dat veiligheidsgrenzen in AI niet vanzelfsprekend zijn, niet eenmaal vastgelegd, en niet onomstreden. Een overheid die genoeg druk uitoefent, een contractwaarde van $200 miljoen, een dreigend label als nationale veiligheidsrisico, kan een bedrijf in een positie brengen waar het moet kiezen tussen principes en voortbestaan.
De EU AI Act lost dit probleem niet volledig op. Artikel 5 verbiedt specifieke toepassingen, maar handhaving is complex en de wet is nog in implementatie. Wat het Europese kader wel doet, is de discussie verschuiven van contractonderhandelingen naar wettelijke verplichtingen. De grenzen zijn er niet omdat een CEO ze verdedigt, maar omdat de wetgever ze heeft vastgesteld.
Dat is een fundamenteel ander governance-model. En het conflict tussen Anthropic en het Pentagon illustreert precies waarom de keuze voor dat model consequenties heeft.
Dario Amodei kan over tien jaar zijn mening hebben veranderd. Een CEO-verklaring is niet duurzaam als rechtsbron. Een wet die is aangenomen door 27 democratische staten en geratificeerd door het Europees Parlement heeft een andere status.
Of die wet standhoudt onder toekomstige politieke druk, is een andere vraag. Maar het is in ieder geval een vraag die democratisch gesteld en beantwoord moet worden, niet in een vergaderzaal tussen een techbedrijf en een minister van Defensie.