Un successo che riflette il crescente sostegno degli utenti verso l’azienda in seguito a un’accesa disputa con il Pentagono riguardo l’uso dei modelli di intelligenza artificiale per la sorveglianza di massa e lo sviluppo di armi autonome.

[In pillole] La sintesi per chi va di fretta:
L'app Claude di Anthropic è diventata la più scaricata sull'App Store USA dopo una disputa con il Pentagono. L'azienda ha rifiutato di permettere l'uso della sua IA per la sorveglianza di massa e per armi autonome. Questa presa di posizione etica ha generato un forte sostegno pubblico, spingendo gli utenti a preferire Claude rispetto a concorrenti come OpenAI.
La disputa sulle garanzie di sicurezza
Le preoccupazioni di Anthropic si concentravano su due questioni tecniche e allo stesso tempo profondamente etiche. La prima riguardava la possibilità di una “raccolta massiva di informazioni pubblicamente disponibili” sui cittadini americani.
Si tratta di dati come la geolocalizzazione, le abitudini di navigazione web e i dettagli finanziari personali, che possono essere legalmente acquistati da intermediari di dati, i cosiddetti data broker.
Sebbene la raccolta di questi dati sia permessa dalla legge, Anthropic ha sostenuto che l’impiego dell’intelligenza artificiale per analizzarli potrebbe amplificare a dismisura le capacità di sorveglianza, con implicazioni difficili da prevedere e controllare.
La seconda preoccupazione, altrettanto seria, era legata all’autonomia decisionale del Pentagono nell’impiegare sistemi d’arma letali completamente automatizzati, eliminando la supervisione umana dal processo.
La posizione del Dipartimento della Difesa, espressa dal suo capo negoziatore per l’intelligenza artificiale, Emil Michael, è stata che l’agenzia «non si impegna in alcuna sorveglianza interna senza un sistema legale autorizzativo e si conforma rigorosamente alle leggi, ai regolamenti e alle protezioni della Costituzione per le libertà civili degli americani».
Di conseguenza, il governo ha richiesto che il contratto permettesse l’uso dei modelli di IA per “tutti gli scopi leciti”, senza le limitazioni specifiche volute da Anthropic. Lo scontro tra queste due visioni ha portato a una rottura netta.
Il Segretario alla Difesa, Pete Hegseth, ha definito la posizione dell’azienda come filosofica e “woke”, arrivando a designare Anthropic come un “rischio per la catena di approvvigionamento della sicurezza nazionale”.
Poco dopo, come descritto da Axios, il presidente Trump ha ordinato a tutte le agenzie federali di interrompere l’uso dei prodotti di Anthropic, concedendo un periodo di transizione di sei mesi per adeguarsi.
La decisione del governo ha creato un vuoto che un concorrente diretto di Anthropic si è affrettato a colmare, ma sollevando ulteriori domande sulla sostanza delle garanzie di sicurezza nel settore.
La mossa di OpenAI e le sue ambiguità
A poche ore dalla direttiva di Trump, Sam Altman, amministratore delegato di OpenAI, ha annunciato che la sua azienda aveva raggiunto un accordo separato con il Pentagono. Altman ha sostenuto che l’intesa preservava gli stessi principi fondamentali per cui Anthropic si era battuta, includendo divieti sulla sorveglianza interna e sulle armi autonome.
Tuttavia, a un esame più attento del linguaggio contrattuale, sono emerse distinzioni significative.
L’accordo di OpenAI vieta specificamente la raccolta “illimitata” di informazioni private dei cittadini americani, ma lascia aperta la possibilità di raccogliere dati pubblicamente disponibili, proprio il tipo di informazioni che, secondo i critici, potrebbe facilitare una sorveglianza su larga scala se analizzato con sistemi di intelligenza artificiale.
Un portavoce di OpenAI ha provato a chiarire la questione, affermando che «le informazioni pubblicamente disponibili possono essere utilizzate dai militari per obiettivi di difesa e intelligence solo se collegate a missioni di sicurezza nazionale autorizzate». L’azienda ha aggiunto di mantenere «piena autorità sui suoi protocolli di sicurezza», supportata da «solide tutele contrattuali».
– Leggi anche: Industria 4.0 il divario tra le aziende chi innova cresce ma la tecnologia non basta
Queste rassicurazioni, però, non hanno convinto tutti, dato che la distinzione tra dati pubblici e privati è spesso labile e tecnicamente complessa da applicare.
In questo contesto, è risultato particolarmente interessante un commento di Ilya Sutskever, co-fondatore di OpenAI che aveva lasciato l’azienda dopo noti dissapori con Altman. Su X, Sutskever ha espresso un sostegno inatteso per la concorrenza, scrivendo: «È estremamente positivo che Anthropic non si sia tirata indietro, ed è significativo che OpenAI abbia preso una posizione simile».
Un’affermazione che, pur sembrando di supporto, sottolinea come la posizione originale e intransigente sia stata quella di Anthropic.
La controversia, lungi dal rimanere confinata negli uffici di Washington e della Silicon Valley, ha avuto una risonanza immediata e tangibile tra il pubblico, che sembra aver scelto da che parte stare.
La reazione del pubblico e le dinamiche di mercato
La disputa ha avuto un effetto diretto e misurabile sulla popolarità di Claude. Secondo i dati comunicati dalla stessa Anthropic, le iscrizioni giornaliere al servizio hanno raggiunto nuovi record ogni giorno della settimana scorsa, gli utenti gratuiti sono aumentati di oltre il 60% da gennaio e gli abbonati a pagamento sono più che raddoppiati nel corso del 2026.
L’enfasi posta dall’azienda su «politiche di utilizzo rigorose, comprese restrizioni sulla sorveglianza interna e sulle armi letali autonome», come riportato da Digital Watch, ha fatto presa su un’ampia fetta di utenti preoccupati per le implicazioni etiche dell’intelligenza artificiale.
I dati di SensorTower confermano questa tendenza, mostrando una traiettoria impressionante: alla fine di gennaio, l’app di Claude era appena fuori dalle prime 100 posizioni, ha trascorso gran parte di febbraio tra le prime 20, per poi accelerare rapidamente fino a raggiungere la vetta.
Questo cambiamento riflette una notevole inversione di tendenza nel panorama competitivo dei chatbot basati su intelligenza artificiale, dove trasparenza e fiducia del pubblico stanno assumendo un’importanza sempre maggiore.
Sebbene alcuni osservatori notino che le classifiche potrebbero riflettere un’intensa attività da parte di un nucleo di utenti molto coinvolti piuttosto che una crescita costante e generalizzata, le discussioni su piattaforme come Hacker News indicano che il fenomeno si estende ben oltre la bolla tecnologica.
Molti utenti hanno raccontato sui social media di aver deciso di passare da ChatGPT a Claude proprio in seguito alla disputa. Questo sentimento è stato probabilmente amplificato da una campagna pubblicitaria di Anthropic durante il Super Bowl, in cui l’azienda ha criticato direttamente la recente decisione di OpenAI di integrare annunci pubblicitari in ChatGPT, posizionandosi come un’alternativa più attenta all’esperienza dell’utente.
Il conflitto ha messo in moto una serie di eventi le cui conseguenze a lungo termine sono ancora da definire.
Anthropic ha già fatto sapere che «contesterà in tribunale qualsiasi designazione di rischio per la catena di approvvigionamento», preparando il terreno a una potenziale battaglia legale sull’autorità del governo e sull’interpretazione dei contratti.
Nel frattempo, Google, che come OpenAI e Anthropic ha ricevuto commesse dal Pentagono, non ha ancora commentato pubblicamente la vicenda, sebbene alcuni suoi dipendenti abbiano espresso solidarietà per la posizione di Anthropic.
La situazione rimane fluida, ma ha già messo in evidenza una tensione fondamentale tra la promessa di un’intelligenza artificiale sicura e responsabile e le pressioni operative di uno dei clienti più potenti al mondo.



