Il suo percorso, segnato da una rottura con OpenAI per divergenze etiche, lo ha portato a fondare Anthropic, che ora cerca di tradurre questi principi di sicurezza in pratiche concrete.

[In pillole] La sintesi per chi va di fretta:
Dario Amodei, ex vicepresidente della ricerca di OpenAI, ha fondato Anthropic con la missione di creare un'intelligenza artificiale più sicura. Ha lasciato OpenAI per divergenze etiche, preoccupato dall'influenza commerciale di Microsoft. Anthropic cerca di definire 'linee rosse' invalicabili per l'IA, bilanciando progresso tecnologico e sicurezza, nonostante le pressioni del mercato e dei suoi investitori.
Chi è Dario Amodei, e perché la sua storia è importante
Per comprendere la filosofia di Anthropic è necessario partire dal percorso del suo fondatore. Dario Amodei, figlio di scienziati italiani emigrati negli Stati Uniti, ha un profilo accademico che lo colloca nell’élite della ricerca sull’intelligenza artificiale.
Dopo un dottorato in fisica a Princeton e un post-dottorato alla Stanford University School of Medicine, la sua carriera prende una direzione chiara verso il machine learning. Entra in Google Brain, il prestigioso team di ricerca sull’IA di Google, per poi passare a OpenAI nel 2016, dove arriva a ricoprire il ruolo di Vice President of Research.
È un periodo fondamentale, in cui contribuisce allo sviluppo di modelli linguistici rivoluzionari come GPT-2 e GPT-3, i predecessori diretti di ChatGPT. La sua biografia, come descritto sul suo sito personale, è quella di uno scienziato che ha visto da vicino la nascita e l’evoluzione esponenziale delle tecnologie che oggi dominano il dibattito pubblico.
La rottura con OpenAI, avvenuta nel 2021, è il vero punto di svolta. Secondo diverse ricostruzioni, il dissidio nasce dalle preoccupazioni di Amodei e di altri ricercatori riguardo alla crescente influenza di Microsoft, che aveva investito miliardi di dollari nell’azienda.
Il timore era che la spinta commerciale e la necessità di lanciare prodotti sempre più potenti potessero mettere in secondo piano le cautele necessarie per garantire la sicurezza di sistemi così complessi.
La fondazione di Anthropic è la risposta diretta a questo dilemma. L’azienda viene costituita come “Public Benefit Corporation”, una forma giuridica che, almeno in teoria, la obbliga a bilanciare gli interessi degli azionisti con il bene pubblico.
Come riportato da più fonti, tra cui il Times of India, l’obiettivo non era semplicemente creare un concorrente di OpenAI, ma un’alternativa fondata su un principio diverso: la sicurezza prima di tutto.
Una missione che suona nobile e necessaria.
Ma che, come spesso accade quando si parla di tecnologia e miliardi di dollari, solleva una domanda più complessa: cosa significa, concretamente, sviluppare un’intelligenza artificiale “sicura”?
Le “linee rosse” di Anthropic, tra dichiarazioni e realtà
Il concetto di “linee rosse” è centrale nella narrazione di Anthropic. Si tratta di limiti etici e pratici che l’azienda si auto-impone. Sebbene i contorni esatti di queste regole non siano sempre stati articolati in un manifesto pubblico e immutabile, il principio guida è chiaro: evitare che i modelli di IA possano essere usati per scopi palesemente dannosi o che possano sviluppare comportamenti imprevedibili e pericolosi.
Tra le applicazioni spesso citate come “off-limits” ci sono, ad esempio, lo sviluppo di armi autonome, la creazione di strumenti per la sorveglianza di massa o la generazione di disinformazione su larga scala.
L’approccio di Anthropic per implementare questi limiti è tecnico, prima ancora che puramente filosofico. Hanno sviluppato una metodologia chiamata “Constitutional AI“. Invece di addestrare il modello basandosi esclusivamente sul feedback umano per ogni singola risposta (un processo lungo e potenzialmente incoerente), il modello viene addestrato a seguire una “costituzione”, un insieme di principi e regole presi da fonti come la Dichiarazione Universale dei Diritti Umani delle Nazioni Unite e i termini di servizio di altre aziende tecnologiche. In pratica, all’IA viene chiesto di valutare le proprie risposte alla luce di questa costituzione, imparando a evitare quelle che la violano.
Questa soluzione tecnica, per quanto ingegnosa, non è priva di criticità.
Chi decide quali principi includere nella costituzione?
Con quale processo vengono aggiornati?
– Leggi anche: Claude di Anthropic in vetta all’App Store dopo lo scontro con il Pentagono sull’etica dell’IA
E, soprattutto, un sistema di regole, per quanto ben congegnato, è sufficiente a contenere le capacità emergenti di un’intelligenza artificiale sempre più potente?
La storia della tecnologia è piena di strumenti creati con le migliori intenzioni e poi utilizzati per scopi imprevisti e distruttivi.
La vera sfida non è solo definire le linee rosse oggi, ma garantire che possano essere mantenute valide domani, quando le capacità di questi sistemi saranno ordini di grandezza superiori.
La posizione di Anthropic e Amodei, come delineata dal dossier di Clay.com, è quella di chi riconosce l’esistenza di un rischio esistenziale legato all’IA e cerca di affrontarlo in modo proattivo.
Tuttavia, l’azienda opera in un mercato spietato, dove la cautela può essere facilmente scambiata per lentezza e dove i concorrenti potrebbero non condividere gli stessi scrupoli etici. Questo introduce un paradosso fondamentale nel modello di business di Anthropic.
Il paradosso di un’azienda “sicura” nella corsa all’intelligenza artificiale
Anthropic è nata da una critica al modello commerciale di OpenAI, ma per sopravvivere e competere ha dovuto seguire un percorso notevolmente simile. Per finanziare la sua ricerca e gli enormi costi computazionali necessari per addestrare modelli come Claude, l’azienda ha raccolto miliardi di dollari da alcuni dei più grandi nomi della tecnologia, tra cui Google e Amazon.
Questo pone Anthropic in una posizione delicata. Da un lato, si presenta come il baluardo della sicurezza e dell’etica; dall’altro, è finanziariamente legata a multinazionali il cui obiettivo primario è e rimane il dominio del mercato. Si ripropone, in una forma diversa, lo stesso potenziale conflitto di interessi che aveva spinto Amodei a lasciare OpenAI a causa dell’influenza di Microsoft.
Può un’azienda rimanere fedele ai suoi principi di cautela quando i suoi principali finanziatori hanno tutto l’interesse a spingere i suoi prodotti sul mercato il più velocemente possibile per competere con ChatGPT e altri modelli?
Questa tensione è il vero cuore della scommessa di Anthropic. Il suo successo o fallimento non dipenderà solo dalla qualità tecnica dei suoi modelli, ma dalla sua capacità di dimostrare che un approccio più cauto e responsabile non è solo eticamente giusto, ma anche commercialmente sostenibile.
Dario Amodei, la cui visione è stata influente anche in contesti accademici come l’Università di Stanford, si trova a dover navigare tra le pressioni del mercato, le aspettative degli investitori e la sua stessa missione fondativa. La questione delle “linee rosse” rimane quindi aperta, non tanto come un elenco statico di divieti, ma come un processo dinamico di negoziazione tra ideali e realtà.
Il vero interrogativo che la traiettoria di Anthropic pone a tutto il settore non è se sia possibile definire dei limiti per l’intelligenza artificiale, ma se, nella frenetica corsa all’oro di questa nuova era tecnologica, ci sia davvero qualcuno disposto a fermarsi un attimo prima di superarli.



