Il conto alla rovescia scade domani alle 17:01 ora di Washington. Da una parte il Pentagono — anzi, il "Department of War" come lo chiama Hegseth — pretende che Claude venga usato "per qualsiasi scopo lecito", senza restrizioni. Dall'altra, Dario Amodei non si muove di un millimetro: niente sorveglianza di massa, niente armi autonome. Nel mezzo, una legge della Guerra Fredda che potrebbe costringere Anthropic a obbedire. Ecco tutto quello che sappiamo ad oggi, 27 febbraio 2026.
Come siamo arrivati fin qui
La storia inizia a luglio 2025, quando il Pentagono assegna contratti da 200 milioni di dollari ciascuno a quattro aziende — Anthropic, OpenAI, Google e xAI — per integrare l'AI di frontiera nei sistemi di difesa nazionale. Anthropic è la prima a portare Claude sulle reti classificate del governo, nei laboratori nazionali, nelle operazioni di intelligence e cyberdifesa. Tutto funziona, tutti contenti.
Poi arriva il cambio di marcia. Il Segretario alla Difesa Pete Hegseth vuole accelerare: l'AI deve poter fare tutto ciò che è legale, senza vincoli contrattuali. Ma Anthropic aveva inserito nel contratto due clausole non negoziabili: Claude non può essere usato per la sorveglianza di massa dei cittadini americani, e non può alimentare armi completamente autonome — quelle che sparano senza un essere umano nel loop.
Martedì 24 febbraio, Hegseth incontra Amodei di persona e lancia un ultimatum: entro venerdì 28 febbraio alle 17:01, Anthropic deve accettare le condizioni del Pentagono o subire le conseguenze. Non è un bluff: sul tavolo ci sono la cancellazione del contratto, la designazione come "rischio per la supply chain" e l'invocazione del Defense Production Act — una legge dell'era coreana che teoricamente permette al governo di obbligare un'azienda privata a fornire i propri prodotti alle forze armate.
Le due linee rosse di Anthropic
A dicembre, durante le trattative, Anthropic aveva proposto un compromesso significativo: Claude poteva essere usato per la difesa missilistica e la cyberdifesa
Iscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
Ragusa gestisce otto scuole su dieci in Italia. E nessuno lo sa.
Argo Software ha l'80% del mercato scolastico italiano. Ricca IT presenta Arianna AI a Roma con Lenovo e Nvidia. Oasi Digitale raduna 13 aziende e 350 milioni di fatturato. Hack Your Talent quinta edizione: oltre 400 iscritti, record assoluto. Tutto da una città di 73mila abitanti.
. L'azienda aveva anche rinunciato a centinaia di milioni di ricavi bloccando l'accesso a Claude per aziende legate al Partito Comunista Cinese, e aveva contribuito a fermare cyberattacchi del CCP che sfruttavano il modello. Non esattamente il profilo di un'azienda anti-militarista.
Sorveglianza di massa domestica. Anthropic sostiene il lavoro di intelligence straniera — è letteralmente già operativa su reti classificate — ma traccia una linea netta sulla sorveglianza dei cittadini americani. Il ragionamento è concreto: i modelli AI possono assemblare dati sparsi in "ritratti completi della vita di qualsiasi persona, automaticamente e su scala massiva". Non è fantascienza, è ingegneria.
Armi completamente autonome. Qui Anthropic fa una distinzione cruciale. I sistemi parzialmente autonomi — come quelli usati in Ucraina — sono legittimi e l'azienda li supporta. Ma i sistemi completamente autonomi, quelli che decidono chi uccidere senza intervento umano, non sono pronti. L'AI di frontiera non è ancora abbastanza affidabile, e Anthropic rifiuta di fornire un prodotto che "mette a rischio i soldati americani e i civili". Ha proposto una partnership di R&D per migliorare l'affidabilità, ma il Pentagono ha rifiutato.
Le armi del Pentagono: dal DPA all'insulto personale
Il Pentagono non ha preso bene il rifiuto. Emil Michael, Chief Technology Officer del Dipartimento della Difesa, ha offerto quelle che definisce "concessioni": un riconoscimento scritto delle leggi federali che vietano la sorveglianza, la documentazione delle policy esistenti sulle armi autonome e un invito a partecipare al comitato etico sull'AI militare.
Quando gli hanno chiesto perché non includere restrizioni esplicite nel contratto, la risposta è stata rivelatrice: "A un certo punto, devi fidarti che il tuo esercito faccia la cosa giusta." Tradotto: non metteremo nulla per iscritto.
Anthropic ha risposto che l'offerta non rappresentava "virtualmente nessun progresso" — solo "legalese che permetterebbe di aggirare le salvaguardie a piacimento". A quel punto Emil Michael è passato agli insulti, accusando Amodei su X di avere un "complesso di Dio" e di voler "controllare personalmente l'esercito americano". Un livello di diplomazia che di solito il Pentagono riserva agli avversari geopolitici, non ai propri fornitori.
Il Defense Production Act può davvero obbligare Anthropic?
Questa è la domanda da un miliardo di dollari — letteralmente. Secondo un'analisi dettagliata di Lawfare, il DPA ha due meccanismi di coercizione.
Il primo è il priority rating: il governo può "saltare la coda" nella produzione. Usato regolarmente e non controverso. Il secondo è la compelled contracting & allocation: il presidente può "richiedere l'accettazione e l'esecuzione" di contratti e "allocare materiali, servizi e strutture". È enormemente più potente, ma praticamente inutilizzato dalla Guerra di Corea.
Il nodo giuridico è se il governo possa forzare Anthropic a vendere Claude senza le sue policy d'uso, o addirittura a ri-addestrare il modello rimuovendo i guardrail di sicurezza. Il Pentagono lo presenta come una modifica ai termini di un prodotto esistente — Anthropic ribatte che le restrizioni d'uso sono parte integrante di ciò che Claude è come servizio.
L'analista legale Charlie Bullock osserva che nessuna delle due posizioni è "una schiacciata", ma il linguaggio ampio del DPA sulle condizioni di allocazione — "alle condizioni e nella misura che riterrà necessaria" — gioca a favore del governo. Il precedente più vicino? Il tentativo dell'FBI nel 2016 di costringere Apple a creare un software per sbloccare un iPhone. Un giudice lo negò, ma l'FBI si basava sull'All Writs Act, una legge molto più debole del DPA.
xAI si piega, OpenAI e Google in bilico
Mentre Anthropic resiste, la xAI di Elon Musk lunedì ha firmato un accordo con il Pentagono accettando lo standard "any lawful use" per Grok sui sistemi classificati. Nessuna restrizione, nessuna linea rossa. È la mossa prevedibile per un'azienda il cui proprietario è praticamente parte dell'amministrazione Trump, ma mette pressione enorme sugli altri player.
La posizione più interessante è quella di Sam Altman. Oggi ha scritto un memo interno dichiarando che OpenAI condivide le stesse linee rosse di Anthropic: niente sorveglianza di massa, niente armi letali autonome, esseri umani sempre nel loop per decisioni ad alto rischio. Ha proposto salvaguardie concrete: ricercatori con clearance di sicurezza per monitorare l'uso, modelli confinati nel cloud (mai su dispositivi edge come armi autonome), capacità di rafforzare continuamente i sistemi di sicurezza.
Eppure c'è un sottotesto inquietante: se Anthropic viene tagliata fuori, OpenAI è pronta a prendere il suo posto sui sistemi classificati. È solidarietà o è strategia commerciale? Probabilmente entrambe.
E poi ci sono i dipendenti. Oltre 300 lavoratori di Google e OpenAI hanno firmato una lettera aperta intitolata "We Will Not Be Divided" — "Non ci lasceremmo dividere". Accusano il Pentagono di negoziare separatamente con ogni azienda, sfruttando la paura che le altre cedano. "Questa strategia funziona solo se nessuna azienda sa dove si posizionano le altre", scrivono. Chiedono esplicitamente a Google e OpenAI di rifiutare la sorveglianza domestica di massa e le armi autonome.
Lo scenario nucleare che ha fatto esplodere tutto
Secondo il Washington Post, il punto di rottura nelle trattative è stato uno scenario ipotetico: un lancio di missili balistici intercontinentali. Il Pentagono voleva garanzie che, in caso di emergenza nucleare, non sarebbe stato necessario "chiamare Anthropic per farsi togliere le restrizioni". Una richiesta comprensibile dal punto di vista militare — e allo stesso tempo il pretesto perfetto per eliminare ogni guardrail.
Perché il problema non è lo scenario nucleare in sé. La difesa missilistica rientra già negli usi consentiti proposti da Anthropic. Il problema è che il Pentagono vuole una clausola "any lawful use" che copra qualsiasi impiego — e rifiuta di specificare cosa non farà. Come ha fatto notare il generale in pensione Jack Shanahan, ex capo del Project Maven: "Puntare il mirino su Anthropic genera titoloni, ma alla fine perdono tutti."
Cosa succede domani?
Se Anthropic non cede entro le 17:01 di venerdì — e tutto indica che non lo farà — il Pentagono ha tre opzioni:
Cancellare il contratto e designare Anthropic come "supply chain risk", vietando a tutti gli appaltatori della difesa di usare Claude. Un danno commerciale enorme, non solo i 200 milioni del Pentagono ma l'intero mercato della difesa.
Invocare il Defense Production Act. Legalmente possibile ma mai testato in questo modo. Anthropic probabilmente obbedirebbe sotto protesta e impugnerebbe immediatamente in tribunale, chiedendo un'ingiunzione temporanea.
Negoziare un compromesso dell'ultimo minuto. Improbabile, dato che Emil Michael ha pubblicamente chiamato Amodei "bugiardo con complesso di Dio".
La realtà è che Anthropic è in uno scenario lose-lose. Se cede, tradisce i propri principi fondativi e perde credibilità — l'azienda è nata letteralmente perché Amodei pensava che OpenAI non prendesse la sicurezza abbastanza sul serio. Se non cede, perde il contratto con il governo, rischia la designazione come supply chain risk e potenzialmente un ordine DPA che la costringerebbe comunque a obbedire.
Il precedente che conta più del contratto
Qualunque cosa accada domani, questo scontro definisce un precedente storico. Per la prima volta, il governo americano sta usando minacce legali della Guerra Fredda per costringere un'azienda tech a rimuovere i guardrail di sicurezza dalla propria AI. E lo sta facendo mentre pretende di non avere intenzione di usare quell'AI per sorveglianza o armi autonome — ma rifiuta di metterlo per iscritto.
Amodei ha scelto una collina su cui morire, e potrebbe davvero morirci sopra. Ma ha ragione su un punto fondamentale: se i modelli AI di frontiera non sono ancora abbastanza affidabili per guidare un'auto senza uccidere nessuno, forse non sono pronti per decidere autonomamente chi bombardare. "Fidatevi del vostro esercito" non è una policy di sicurezza — è l'assenza di una.