La controversia ha evidenziato le profonde divisioni sull’impiego bellico dell’IA, con Anthropic che rifiuta applicazioni per la sorveglianza e le armi autonome, spingendo i dipendenti di aziende rivali a unire le forze.

[In pillole] La sintesi per chi va di fretta:
La società di IA Anthropic rifiuta di collaborare con il Pentagono su progetti militari, scatenando la reazione del governo. In un gesto senza precedenti, centinaia di dipendenti dei rivali Google e OpenAI hanno sostenuto Anthropic con una lettera aperta. La disputa si è trasformata in una battaglia legale ed etica sull'uso bellico dell'intelligenza artificiale.
La lettera che ha unito i rivali
La solidarietà tra dipendenti di aziende concorrenti non è un fenomeno comune, soprattutto in un campo competitivo come quello dell’intelligenza artificiale. Eppure, di fronte alla ferma posizione di Anthropic e alla conseguente pressione del governo, qualcosa è cambiato.
Una lettera aperta firmata da oltre 300 dipendenti di Google e più di 60 di OpenAI, come riportato da TechCrunch, ha espresso un chiaro sostegno alla decisione di Anthropic di non piegarsi alle richieste del Pentagono. I firmatari, che rappresentano una parte significativa del talento che sviluppa queste tecnologie, hanno messo nero su bianco le loro preoccupazioni, sostenendo che lo sviluppo di un’intelligenza artificiale sicura e benefica per l’umanità è incompatibile con la sua applicazione in sistemi di sorveglianza di massa o in armi autonome.
Il documento non è solo un attestato di stima verso un concorrente, ma una dichiarazione di principi che suona come un avvertimento anche per le proprie aziende. I dipendenti di Google e OpenAI hanno di fatto tracciato una linea, segnalando ai loro stessi datori di lavoro che esistono limiti etici che non dovrebbero essere superati, a prescindere dalla convenienza economica o dalle pressioni politiche.
Questa presa di posizione è ancora più significativa se si considera che OpenAI, solo pochi mesi prima, aveva rimosso dal proprio statuto il divieto esplicito di collaborare a progetti militari, una mossa che aveva suscitato diverse critiche. La lettera, quindi, può essere letta anche come una risposta interna a quella decisione, un modo per riaffermare che, al di là delle policy aziendali, chi materialmente costruisce questi sistemi ha una propria visione sul loro utilizzo.
La mossa dei dipendenti ha avuto l’effetto di spostare il dibattito dal piano puramente commerciale a quello etico e sociale, costringendo tutte le parti in causa a giustificare le proprie posizioni non più a porte chiuse, ma di fronte all’opinione pubblica e, soprattutto, alla propria forza lavoro.
Ma per comprendere la portata di questa mobilitazione, è necessario fare un passo indietro e analizzare cosa abbia spinto Anthropic a un rifiuto così categorico, al punto da innescare una crisi di questa portata.
Le ‘linee rosse’ di Anthropic e la minaccia del governo
Al centro del contendere ci sono due “linee rosse” che Anthropic, guidata dal suo amministratore delegato Dario Amodei, ha dichiarato invalicabili.
La prima riguarda lo sviluppo di sistemi di intelligenza artificiale destinati alla sorveglianza di massa sul territorio nazionale. La seconda, ancora più delicata, è il rifiuto di collaborare alla creazione di armi autonome, ovvero sistemi d’arma in grado di identificare e colpire bersagli senza un intervento umano diretto.
Questi due punti non sono negoziabili per l’azienda, che è stata fondata da ex ricercatori di OpenAI proprio con l’obiettivo di perseguire un approccio più cauto e orientato alla sicurezza nello sviluppo dell’IA.
La risposta del governo, e in particolare del Segretario alla Difesa Pete Hegseth, è stata l’inaspettata minaccia di ricorrere al Defense Production Act (DPA). Si tratta di una legge risalente alla Guerra Fredda, concepita per mobilitare le industrie private in caso di emergenze nazionali, come la produzione di forniture mediche durante una pandemia.
– Leggi anche: Manifattura italiana a inizio 2026, tra sfide globali e un inaspettato ottimismo
L’idea di applicarla per costringere un’azienda di software a sviluppare algoritmi per scopi militari è stata giudicata da molti esperti legali come un’azione senza precedenti e una forzatura delle norme. Questa mossa aggressiva, secondo quanto analizzato da Business Insider, segnala quanto sia diventato strategico lo sviluppo dell’intelligenza artificiale per la sicurezza nazionale e fino a che punto il governo sia disposto a spingersi per assicurarsi un vantaggio tecnologico.
Lo scontro tra Amodei e Hegseth rappresenta plasticamente la tensione crescente tra due mondi: da un lato, una parte della comunità tecnologica che chiede cautela e invoca principi etici; dall’altro, l’apparato governativo che vede nell’IA uno strumento indispensabile per la supremazia militare.
Il rifiuto di Anthropic non è quindi solo una questione di policy aziendale, ma una sfida diretta al complesso militare-industriale che da decenni lega a doppio filo la tecnologia e la difesa.
Questa pressione, però, non ha lasciato indifferente il resto della Silicon Valley, e in particolare il principale concorrente di Anthropic, OpenAI, che si è trovato a gestire una situazione interna altrettanto delicata.
L’effetto domino su OpenAI e le mosse successive
La protesta dei dipendenti e la solidarietà mostrata verso Anthropic hanno messo OpenAI in una posizione scomoda. L’azienda guidata da Sam Altman, che aveva da poco ammorbidito la sua posizione sulle collaborazioni militari, si è trovata di fronte a un’esplicita opposizione interna.
La lettera firmata da decine dei suoi ricercatori ha reso evidente che un’eventuale collaborazione su progetti controversi avrebbe potuto causare una fuga di talenti, un rischio che nessuna azienda di IA può permettersi.
Di conseguenza, OpenAI è stata costretta a rinegoziare i termini del proprio accordo con il Pentagono, introducendo nuove clausole e limitazioni per placare le preoccupazioni interne.
Questa marcia indietro, seppur parziale, dimostra il potere che i lavoratori qualificati possono esercitare in questo settore. Non si tratta più solo di obbedire alle direttive aziendali, ma di partecipare attivamente alla definizione dei confini etici della tecnologia che stanno creando.
La vicenda ha quindi creato un precedente importante: le aziende ora sanno che ignorare le preoccupazioni etiche dei propri dipendenti può avere conseguenze concrete, sia in termini di immagine sia di operatività.
Nel frattempo, il confronto tra Anthropic e il governo ha raggiunto un nuovo livello di intensità. Di fronte alla persistente minaccia di vedersi imporre la collaborazione attraverso il Defense Production Act, Anthropic ha scelto una via ancora più radicale.
Ha intentato un’azione legale contro il Dipartimento della Difesa per contestare la legittimità dell’uso del DPA in questo contesto.
La causa legale trasforma definitivamente la disputa in una battaglia fondamentale sui limiti del potere governativo nell’era digitale e sul diritto di un’azienda privata di rifiutare di partecipare a progetti che ritiene eticamente riprovevoli.
L’esito di questa causa potrebbe definire per i prossimi decenni il rapporto tra l’industria tecnologica e lo stato.
La vicenda solleva interrogativi fondamentali sulla coerenza delle aziende che, da un lato, promuovono pubblicamente un’intelligenza artificiale “sicura ed etica” e, dall’altro, si trovano a negoziare i confini di questa etica di fronte a contratti governativi.
La posizione di Anthropic e la reazione dei dipendenti di Google e OpenAI suggeriscono che, per una parte rilevante di chi lavora nel settore, la responsabilità sociale non è solo uno slogan di marketing, ma un principio guida.
Resta da vedere se questa spinta dal basso sarà sufficiente a orientare le scelte di un’industria sempre più centrale per gli equilibri geopolitici globali, o se le pressioni economiche e politiche finiranno per prevalere.



