Altman contro Amodei: il prezzo della coscienza
Armi autonome, sorveglianza di massa e un contratto da 200 milioni: come il Pentagono ha spaccato in due il mondo dell'IA
La sera del 27 febbraio 2026 Sam Altman scrive su X che OpenAI condivide le stesse redline riguardo l’uso dell’intelligenza artificiale da parte del governo tracciate da Dario Amodei, il CEO del suo concorrente Anthropic: niente sorveglianza di massa sui cittadini americani, niente armi autonome. Qualcuno lo screenshotta e lo condivide, mentre altri tirano un sospiro di sollievo: Skynet può attendere, per chi crede a Terminator.
Poche ore dopo, quello stesso Sam Altman annuncia che OpenAI ha firmato con il Pentagono il contratto che Anthropic aveva appena rifiutato di firmare per non violare le redline che lui stesso diceva di condividere.
Quella sequenza di eventi contraddittori, condensata in meno di una giornata proprio mentre cominciava la guerra in Iran, è il cuore di questa vicenda. Per capire perché quelle decisioni abbiano scatenato la più grande rivolta di consumatori nella storia dell’intelligenza artificiale, tuttavia, bisogna cominciare dall’inizio.
Due uomini, due visioni
Sam Altman è il CEO di OpenAI, l’azienda che nel novembre 2022 ha portato ChatGPT al mondo inaugurando l’era dell’intelligenza artificiale generativa di massa. Nato nel 1985 a Chicago, Altman lasciò l’università, vendette da giovane la sua prima startup e guidò Y Combinator prima di diventare CEO di OpenAI. È un uomo abituato a muoversi ai piani alti del potere ed è considerato uno dei volti pubblici più riconoscibili dell’intelligenza artificiale globale.
Dario Amodei è il CEO di Anthropic, il cui nome vale già come dichiarazione d’intenti (dal greco anthropos, essere umano). Amodei, classe 1983, era Chief Research Officer di OpenAI quando nel 2021 decise di andarsene, portando con sé una manciata di ricercatori di primo piano. Il motivo ufficiale, mai smentito, furono disaccordi profondi sulla sicurezza dell’intelligenza artificiale e sulla direzione commerciale che l’azienda stava prendendo. Anthropic nacque da quella scissione, con l’obiettivo dichiarato di costruire sistemi di IA che mettessero la tutela dell’uomo al centro.
Questa distinzione di origine è il presupposto di tutto quello che sarebbe accaduto cinque anni dopo.
Il contratto e le sue condizioni
Nel luglio 2025, Anthropic era diventata la prima azienda di intelligenza artificiale a implementare i propri modelli sulle reti classificate del Dipartimento della Difesa americano, con un contratto da 200 milioni di dollari. A quel punto, Claude era già integrato nei sistemi del Comando Centrale americano.
Tuttavia, con quel contratto erano arrivate anche delle condizioni. Anthropic aveva insistito su due redline: Claude non poteva essere usato per la sorveglianza di massa dei cittadini americani e non poteva essere integrato in sistemi d’arma autonomi — vale a dire, quelli capaci di decidere da soli se e quando aprire il fuoco, senza un essere umano nella catena di comando. Erano condizioni che Amodei aveva fatto inserire come clausole vincolanti.
Nei primi mesi del 2026 il Pentagono decise che erano un problema. Il Dipartimento della Difesa, che l’amministrazione Trump aveva ribattezzato Dipartimento della Guerra, voleva poter utilizzare Claude per “tutti gli scopi leciti”, senza restrizioni. Pete Hegseth, Segretario alla Difesa ed ex conduttore di Fox News, scelto da Trump per il suo allineamento ideologico più che per la sua esperienza militare, incontrò Amodei al Pentagono e gli pose la questione in termini netti: o Anthropic rimuoveva le redline, o avrebbe perso il contratto.
Amodei dichiarò che non poteva in buona coscienza cedere alle richieste del governo.
L’ultimatum e la guerra
Il Pentagono fissò una scadenza, le 17:01 di venerdì 27 febbraio, con un ventaglio di conseguenze che andavano dalla rescissione del contratto all’invocazione del Defense Production Act, una legge che in teoria avrebbe potuto obbligare Anthropic a cooperare comunque con il governo.
Quello che complicò la scadenza del 27 febbraio fu il contesto: quella stessa sera le forze armate americane e israeliane lanciarono i primi attacchi contro l’Iran. Claude era già integrato nei sistemi militari impegnati nell’operazione, il che significava che rimuoverlo in quel momento avrebbe estratto un ingranaggio cruciale da una macchina già in moto. A quel punto, a Trump non rimase che concedere sei mesi per la transizione.
Tuttavia, pur riconoscendo di non poter eliminare subito Anthropic come aveva minacciato, Trump la attaccò con veemenza su Truth Social, definendola un’azienda “di sinistra radicale e woke”. Hegseth la designò ufficialmente come “rischio nella catena di approvvigionamento”, etichetta riservata ad aziende che hanno legami con potenze straniere ostili e mai applicata, fino ad allora, a un’azienda americana.
È mentre la designazione viene resa pubblica che Sam Altman annuncia l’accordo con il Pentagono.
La geometria di un’opportunità
Il timing scatena reazioni immediate: Altman aveva dichiarato poche ore prima di condividere le stesse redline di Amodei, per poi firmare comunque il contratto che quelle redline avrebbe dovuto escludere. L’azienda pubblicò subito un estratto del testo, carico di legalese, in cui la formula chiave era che il governo avrebbe potuto servirsi della sua IA per “tutti gli scopi leciti”, dove “lecito” è per definizione qualsiasi cosa decida di fare l’amministrazione Trump.
Altman riscrisse il contratto due volte in quarantotto ore, per poi riconoscere il lunedì che l’azienda non avrebbe dovuto precipitarsi a firmare e che la mossa era “opportunistica e sciatta”.
A una riunione con i dipendenti ammise che sarebbe stato Hegseth ad avere l’ultima parola su come il Pentagono avrebbe utilizzato il contratto. In seguito, centinaia di dipendenti di OpenAI e Google firmarono una lettera aperta a sostegno della posizione di Anthropic contro l’uso dell’IA da parte del Dipartimento della Guerra.
C’è poi un elemento di contesto che illumina la vicenda meglio di qualunque analisi del contratto. Il presidente di OpenAI Greg Brockman e sua moglie avevano versato 25 milioni di dollari a MAGA Inc., il super PAC pro-Trump, nel settembre 2025, secondo i dati della Federal Election Commission riportati da Bloomberg. Altman stesso aveva contribuito con un milione di dollari al fondo inaugurale della presidenza Trump, donazione confermata dal portavoce di OpenAI e ampiamente documentata.
Anthropic, al contrario, aveva assunto funzionari dell’amministrazione Biden e si era schierata per la regolamentazione dell’IA. Alla luce di ciò, alcuni osservatori hanno interpretato le differenze sul contratto quale casus belli con profonde radici politiche, piuttosto che tecniche.
La transumanza
Quel che successe nei giorni successivi fu qualcosa che il settore dell’intelligenza artificiale non aveva mai visto. Claude scalò le classifiche fino a superare ChatGPT come applicazione gratuita più scaricata negli Stati Uniti il 1° marzo, per la prima volta nella sua storia. Nei giorni successivi Anthropic registrò un numero record di nuove iscrizioni giornaliere e la domanda fu tale da mandare in down l’app per diverse ore il 2 marzo, evento che la società attribuì a una domanda senza precedenti.
Questo movimento si chiama QuitGPT: secondo i suoi organizzatori, oltre due milioni e mezzo di persone si impegnarono a cancellare i propri abbonamenti a ChatGPT, e sui marciapiedi davanti all’HQ di OpenAI a San Francisco apparve la scritta Show the contract, mostra il contratto. Anche i vip si sono schierati: ad esempio, la pop star Katy Perry ha postato su X uno screenshot della pagina prezzi di Claude con un cuore rosso disegnato sopra e una sola parola come didascalia, done, raccogliendo 2,8 milioni di visualizzazioni in poche ore.
Non era più una scaramuccia online, ma una rivolta di consumatori che spostava quote di mercato reali per ragioni etiche.
Il dilemma aperto
Vale però la pena di fermarsi su un’ambiguità riguardo i protagonisti di questa storia. Anthropic non è una onlus: la sua valutazione sfiora i 400 miliardi di dollari e il suo modello di business dipende dalla capacità di scalare.
Soprattutto, già nel novembre 2024 aveva siglato un accordo con Palantir, controversa società di analisi dei dati che fa capo a Peter Thiel, e Amazon Web Services, che garantiva alle agenzie di intelligence americane l’accesso ai modelli Claude. Un dettaglio che molti dei nuovi utenti in fuga da ChatGPT ignoravano e che ha creato qualche imbarazzo nei forum del boicottaggio.
Resta aperto l’interrogativo che nessuna dichiarazione pubblica può chiudere: il rifiuto di Amodei è stato un atto di principio o un posizionamento commerciale di straordinaria efficacia? Forse entrambe le cose insieme. Tuttavia, questo non cancella né la sostanza del rifiuto né il valore del segnale che quel rifiuto ha mandato.
Cosa ci dice questo movimento
Una settimana dopo il sorpasso, ChatGPT era tornata al primo posto sull’App Store, mentre Claude era rimasta seconda: lo tsunami si era assestato, ma il paesaggio non era lo stesso di prima. In pochi giorni, Claude era passata dall’essere uno strumento per professionisti del settore a un nome riconoscibile per milioni di persone comuni che, fino a quel venerdì, non avevano mai sentito parlare di Anthropic.
Il fenomeno QuitGPT dice qualcosa che va oltre le classifiche delle applicazioni. Gli utenti stanno cominciando a trattare la scelta del proprio assistente di intelligenza artificiale come si tratta qualunque altra scelta di consumo consapevole. È un cambiamento significativo, perché l’IA ha raggiunto una pervasività sufficiente a diventare identitaria: chi la usa ogni giorno sa, in qualche misura, di delegare parte del proprio pensiero a un sistema che appartiene a qualcuno, e comincia a voler sapere a chi.
Per ora, la reazione degli utenti è stata più chiara ed efficace della mancata regolamentazione da parte del Congresso e delle sentenze delle corti federali. Il massiccio movimento di persone che hanno scelto di cancellare un’app è una risposta parziale ma, al momento, la più eloquente di tutte.



