Trump ha appena ordinato a ogni agenzia federale degli Stati Uniti di cessare immediatamente l'uso della tecnologia Anthropic. Il Pentagono ha marchiato l'azienda come "rischio per la catena di approvvigionamento nazionale" — una designazione solitamente riservata a nemici come Huawei. Il motivo? Dario Amodei ha detto no.
La settimana che ha cambiato tutto
Per chi si fosse perso le puntate precedenti: Anthropic — l'azienda che sviluppa Claude, il modello AI attualmente unico sulle reti classificate del Pentagono — ha un contratto da 200 milioni di dollari con il Dipartimento della Difesa. Il problema è sorto quando il Pentagono ha preteso l'uso illimitato di Claude per qualsiasi scopo legale, eliminando due restrizioni che Amodei considera non negoziabili: il divieto di sorveglianza di massa sui cittadini americani e quello sulle armi completamente autonome.
Martedì 24 febbraio il Segretario alla Difesa Pete Hegseth ha incontrato Amodei faccia a faccia. Il messaggio era semplice: cedete entro venerdì alle 17:01, oppure. L'"oppure" includeva la cancellazione del contratto, la designazione come rischio nazionale e — ciliegina sulla torta — la minaccia di invocare il Defense Production Act, una legge dell'era della Guerra Fredda che consente al governo di obbligare un'azienda privata a servire la sicurezza nazionale.
"Non possiamo in buona coscienza acconsentire"
Giovedì sera Amodei ha pubblicato una dichiarazione ufficiale sul sito di Anthropic che non lascia spazio all'ambiguità. Ha ricordato che l'azienda è stata la prima a portare un modello AI nelle reti classificate e nei Laboratori Nazionali, che ha rinunciato a centinaia di milioni di dollari tagliando l'accesso a entità legate al Partito Comunista Cinese, e che ha attivamente contribuito a bloccare cyberattacchi.
Ma sulle due linee rosse non ha ceduto di un millimetro. Il linguaggio contrattuale proposto dal Pentagono, ha spiegato, era "presentato come compromesso ma accompagnato da clausole legali che avrebbero permesso di ignorare quelle garanzie a piacimento"
Iscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
Ragusa gestisce otto scuole su dieci in Italia. E nessuno lo sa.
Argo Software ha l'80% del mercato scolastico italiano. Ricca IT presenta Arianna AI a Roma con Lenovo e Nvidia. Oasi Digitale raduna 13 aziende e 350 milioni di fatturato. Hack Your Talent quinta edizione: oltre 400 iscritti, record assoluto. Tutto da una città di 73mila abitanti.
. Tradotto: ci offrono una porta blindata con la chiave attaccata fuori.
"Un'AI potente che scruta miliardi di conversazioni potrebbe misurare il sentimento pubblico, individuare sacche di dissenso e soffocarle prima che crescano" — Dario Amodei, dichiarazione ufficiale del 26 febbraio
È una frase che pesa come un macigno, perché non parla di scenari futuristici: descrive qualcosa che la tecnologia attuale rende già tecnicamente possibile.
"E se un missile nucleare stesse arrivando?"
Nel tentativo di mettere Amodei con le spalle al muro, un alto funzionario del Pentagono gli ha posto uno scenario iperbolico: un missile balistico intercontinentale nucleare in arrivo, 90 secondi per reagire, Claude come unico strumento di risposta — ma i guardrail dell'azienda ne impedirebbero l'uso. Cosa fai?
Le due versioni divergono. Secondo il Pentagono, Amodei avrebbe risposto "chiamateci e troviamo una soluzione". Anthropic ha definito questa ricostruzione "palesemente falsa" e ha precisato che ogni versione del linguaggio contrattuale proposto permetteva già l'uso di Claude per la difesa missilistica. In pratica il Pentagono ha costruito un uomo di paglia per giustificare la richiesta di carta bianca.
"Bugiardo con complesso di Dio"
Il tono è degenerato rapidamente. Emil Michael, Sottosegretario alla Difesa per la ricerca e l'ingegneria, ha scritto su X: "È un peccato che Dario Amodei sia un bugiardo con un complesso di Dio. Non vuole altro che controllare personalmente l'esercito americano, ed è disposto a mettere a rischio la sicurezza nazionale". Un funzionario del Pentagono che insulta pubblicamente il CEO di un'azienda privata su un social network: è il livello del dibattito nel 2026.
Il portavoce del Pentagono Sean Parnell ha insistito che l'esercito vuole usare Claude solo "per scopi legali" e che "non ha interesse nella sorveglianza di massa né nelle armi autonome". Ma se è davvero così, perché non accettare di metterlo per iscritto con clausole vincolanti? La risposta è ovvia: perché vogliono la flessibilità di cambiare idea domani.
Trump: "Svitati di sinistra, basta contratti"
Venerdì 27 febbraio, poche ore prima della scadenza dell'ultimatum, Trump è intervenuto su Truth Social con il suo stile inconfondibile: "Ordino a OGNI agenzia federale degli Stati Uniti di CESSARE IMMEDIATAMENTE l'uso della tecnologia Anthropic. Non ne abbiamo bisogno, non la vogliamo, e non faremo mai più affari con loro!". Ha definito l'azienda "left-wing and woke" — il marchio d'infamia che questa amministrazione riserva a chi non si piega.
In rapida successione sono arrivate le conseguenze concrete: la GSA ha rimosso Anthropic da USAi.gov, la piattaforma centralizzata per i tool AI del governo federale. Hegseth ha formalizzato la designazione di "supply chain risk", vietando a ogni contractor, fornitore o partner che lavora con l'esercito di avere rapporti commerciali con Anthropic. Il Pentagono ha ottenuto una finestra di sei mesi per il phase-out, dato che Claude è embedded nei sistemi classificati e non si sostituisce premendo un tasto.
Il piano B si chiama Grok — ed è un problema
Il Pentagono ha già un sostituto in mente: Grok, il modello di xAI di Elon Musk, che sarebbe "pronto per ambienti classificati". C'è un piccolo dettaglio: gli stessi funzionari ammettono che Grok non è avanzato quanto Claude. È come sostituire un chirurgo con un infermiere perché il chirurgo si è rifiutato di operare senza anestesia. Il paziente — in questo caso, la sicurezza nazionale — non ne esce bene.
Ma il vero colpo di scena è arrivato dall'ultima direzione che Trump si aspettava. Sam Altman, CEO di OpenAI — il principale concorrente di Anthropic — ha scritto un memo ai dipendenti dichiarando che le linee rosse di Anthropic sono le stesse di OpenAI: niente sorveglianza di massa, niente armi letali autonome, l'umano deve restare nel loop per le decisioni ad alto rischio. Altman ha detto di voler "contribuire alla de-escalation".
Non è finita. Dipendenti di OpenAI, Google e Amazon hanno firmato una lettera aperta a sostegno della posizione di Anthropic, avvertendo che il Pentagono sta cercando di "dividere ogni azienda con la paura". Persino il generale Jack Shanahan, che ha guidato il controverso Project Maven, ha definito le linee rosse di Amodei "ragionevoli".
110 miliardi e un messaggio chiaro
Nel bel mezzo della crisi, OpenAI ha annunciato un round di finanziamento da 110 miliardi di dollari — il più grande della storia del tech privato. Amazon ha messo 50 miliardi, NVIDIA 30, SoftBank 30. La valutazione pre-money tocca i 730 miliardi. Il tempismo non è casuale: è un segnale che il mercato non punisce chi prende posizione sull'etica dell'AI — semmai il contrario.
Anthropic stessa vale 380 miliardi, e Amodei ha sottolineato che la valutazione dell'azienda è cresciuta da quando ha iniziato lo scontro con l'amministrazione Trump. Se il messaggio del governo era "piegatevi o sarete distrutti", il mercato sta rispondendo con un messaggio diverso: "Resistete e sarete premiati".
Il verdetto
Trump voleva fare un esempio di Anthropic per intimidire tutta l'industria AI. Il risultato è l'opposto: ha creato un martire e ha unito aziende rivali in una posizione comune. OpenAI, Google, Amazon — tutti dalla stessa parte della barricata. Il piano B di Musk è tecnicamente inferiore. E il precedente di marchiare un'azienda americana come "rischio nazionale" perché difende principi democratici apre un vaso di Pandora che peserà ben oltre questa amministrazione.
Amodei non ha solo difeso due clausole contrattuali. Ha tracciato una linea che definirà il rapporto tra tecnologia e potere per il prossimo decennio. E per ora, dalla parte giusta della storia c'è lui.