Dario Amodei / Anthropic sfida il Pentagono: «L’IA difende la democrazia, non la sorveglianza di massa né le armi autonome»
In un mondo dove l’intelligenza artificiale è diventata l’arma decisiva del XXI secolo, Dario Amodei, CEO di Anthropic, ha pronunciato parole che risuonano...
Anathema Studio
Team

In un mondo dove l’intelligenza artificiale è diventata l’arma decisiva del XXI secolo, Dario Amodei, CEO di Anthropic, ha pronunciato parole che risuonano come un manifesto etico:
«Credo profondamente nell’importanza esistenziale di usare l’IA per difendere gli Stati Uniti e le democrazie, e per sconfiggere i nostri avversari autocratici.»
La dichiarazione, rilasciata il 26 febbraio 2026, non è una semplice intervista: è il punto di non ritorno tra una delle aziende frontier più potenti al mondo e il Department of War americano. Anthropic ha fatto di tutto per mettere Claude al servizio della sicurezza nazionale statunitense. È stata la prima azienda a deployare modelli su reti classificate, la prima nei National Laboratories, la prima a sviluppare versioni custom per esigenze di intelligence. Oggi Claude è già operativo su analisi di intelligence, simulazioni strategiche, pianificazione operativa e operazioni cyber.
Anthropic ha anche pagato un prezzo altissimo in termini economici: ha rifiutato centinaia di milioni di dollari da clienti legati al Partito Comunista Cinese, ha bloccato attacchi sponsorizzati dal CCP e ha fatto lobbying attivo per controlli sulle esportazioni di chip avanzati. La linea è sempre stata chiara: il Department of War decide come usare l’IA nelle operazioni militari; Anthropic non interferisce mai caso per caso.
Ma ci sono due linee rosse che Amodei non supererà mai, nemmeno sotto minaccia.
La prima è la sorveglianza di massa domestica sugli americani. L’IA rende possibile, per la prima volta nella storia, assemblare automaticamente ogni dato pubblico – movimenti, cronologia di navigazione, associazioni, consumi – in un profilo completo di ogni cittadino, a scala nazionale. «Questo è incompatibile con i valori democratici», afferma Amodei. La legge americana non è ancora aggiornata, ma il pericolo è mortale per le libertà fondamentali.
La seconda linea rossa è ancora più netta: armi completamente autonome che scelgono e colpiscono bersagli senza alcun umano nel loop. Oggi la tecnologia non è affidabile. Il rischio per soldati americani e civili innocenti è troppo alto. Anthropic si dice disponibile a collaborare alla ricerca e sviluppo per rendere queste armi più sicure, ma finché non esistono guardrail reali, la risposta è no.
Il Department of War ha risposto con durezza: o Anthropic rimuove queste due protezioni e accetta “qualsiasi uso legale”, oppure verrà etichettata come “supply chain risk” – lo stesso trattamento riservato alle aziende cinesi nemiche – e il Defense Production Act verrà usato per costringerla.
Amodei ha risposto con una verità nuda e cruda: «Non possiamo in coscienza acconsentire. Le minacce sono contraddittorie: ci chiamano rischio di sicurezza e allo stesso tempo dicono che Claude è essenziale. Non cambiamo posizione.»
L’azienda ha offerto una transizione liscia nel caso venisse esclusa, ha confermato che continuerà a servire il Pentagono rispettando le due protezioni e ha espresso la speranza che il Department of War ci ripensi, perché il valore strategico di Claude per la difesa americana è enorme.
Questa non è solo una disputa contrattuale. È lo scontro frontale tra due visioni del futuro: una che vede l’IA come strumento di potere assoluto, l’altra che la vuole strumento di potere responsabile. Amodei ha scelto di schierarsi dalla parte della seconda, anche a costo di perdere il cliente più importante del pianeta.
Nel momento in cui l’intelligenza artificiale diventa più potente delle armi nucleari, la domanda non è più “chi vincerà la corsa all’IA”, ma “chi la userà senza perdere l’anima”. Dario Amodei ha appena alzato la posta in gioco per tutti.
