Il patron di OpenAI predice che questa intelligenza, capace di superare le capacità cognitive umane in quasi tutti i campi, possa arrivare entro pochi anni, scatenando però dibattiti sulla sua reale fattibilità e su come l’umanità potrà gestirne le profonde implicazioni sul lavoro e la società.

[In pillole] La sintesi per chi va di fretta:
Sam Altman, CEO di OpenAI, predice l'arrivo di un'Intelligenza Artificiale Generale (AGI) "sorprendentemente potente" entro il decennio, capace di superare l'intelligenza umana. Questa visione ambiziosa solleva dibattiti sulle implicazioni socio-economiche e la necessità di governance. L'articolo esplora la sua prospettiva sugli "agenti" IA e l'urgenza di un controllo internazionale per assicurare che lo sviluppo dell'AGI sia allineato con il benessere dell'umanità.
Un futuro che è già qui?
Per comprendere la visione di Altman, è necessario distinguere tra l’intelligenza artificiale che conosciamo oggi e l’AGI che lui prefigura. Gli attuali modelli, come GPT-4, sono straordinariamente abili nell’elaborare il linguaggio, generare testo e immagini, ma la loro “intelligenza” è specializzata e derivata da enormi quantità di dati su cui sono stati addestrati.
L’intelligenza artificiale generale, invece, sarebbe in grado di ragionare, apprendere da esperienze disparate e applicare la conoscenza in modo flessibile per risolvere problemi nuovi, proprio come un essere umano, ma su una scala e a una velocità inimmaginabili.
L’idea di Altman, già espressa ben 8 anni fa in un suo saggio intitolato The Merge, è che l’umanità si stia gradualmente fondendo con i suoi strumenti tecnologici. L’AGI rappresenterebbe il culmine di questo processo: non più uno strumento passivo, ma un partner cognitivo.
Le implicazioni sono profonde.
Altman stesso ha ipotizzato che un bambino nato nel 2025 potrebbe essere uno degli ultimi a poter affermare di essere più “intelligente” di un’intelligenza artificiale. Questa affermazione, riportata da diverse testate tra cui TechRadar, non è un semplice esercizio di stile, ma riflette una convinzione radicata nel potenziale esponenziale della tecnologia.
Tuttavia, queste previsioni non sono esenti da critiche. Molti esperti nel campo dell’IA ritengono che, sebbene i progressi siano stati notevoli, il percorso verso una vera intelligenza generale sia ancora lungo e pieno di ostacoli non ancora compresi.
La capacità di un modello di prevedere la parola successiva in una frase, per quanto sofisticata, non equivale a una comprensione del mondo.
Il sospetto, avanzato da alcuni osservatori, è che l’accelerazione delle previsioni di Altman possa anche servire a mantenere alta l’attenzione su OpenAI, attrarre investimenti miliardari e spingere il settore a una competizione sempre più serrata.
La promessa di un futuro imminente è, dopotutto, un potente motore economico.
Ma questa visione di un’intelligenza superiore non è solo una questione di capacità computazionale; solleva interrogativi profondi sulla natura stessa del lavoro e della creatività umana.
Oltre l’intelligenza: l’era degli “agenti” autonomi
Il passaggio successivo, secondo la visione di Altman, non riguarda solo la capacità di un’IA di “pensare”, ma anche di “agire”. Si parla sempre più insistentemente di “agenti di IA”, ovvero sistemi autonomi in grado di eseguire compiti complessi nel mondo digitale e, un giorno, anche in quello fisico.
Un agente potrebbe, ad esempio, ricevere l’obiettivo di “organizzare un viaggio a Lisbona per il prossimo fine settimana con un budget di 500 euro” e procedere autonomamente a cercare voli, confrontare hotel, prenotare e gestire l’intero processo senza ulteriore intervento umano.
Questo concetto, che Fortune ha esplorato in relazione alle dichiarazioni di Altman, rappresenta un cambiamento fondamentale.
Se ChatGPT è un collaboratore a cui chiedere informazioni, un agente è un delegato a cui affidare responsabilità.
La biografia di Altman, che lo vede co-fondatore di diverse startup e presidente per anni del celebre acceleratore Y Combinator, come documentato da ToolsHero, lo posiziona come una persona che comprende profondamente il valore dell’efficienza e della scalabilità. Gli agenti di IA sono, in quest’ottica, la massima espressione di questi principi: una forza lavoro digitale instancabile, capace di rivoluzionare interi settori economici, dalla gestione amministrativa alla ricerca scientifica.
– Leggi anche: OTTO di Rockwell Automation Vince l’IERA Award 2025: Nuova Era per la Logistica con AMR Pesanti
Qui, però, la discussione si sposta dal piano tecnologico a quello socio-economico. Se da un lato la prospettiva di automatizzare compiti ripetitivi e complessi è allettante, dall’altro emerge con forza il tema dell’impatto sul lavoro umano.
Quali professioni saranno ridimensionate o rese obsolete?
E, cosa più importante, la ricchezza e la produttività generate da questi sistemi saranno distribuite in modo equo o andranno a concentrarsi ulteriormente nelle mani di poche grandi aziende tecnologiche?
OpenAI è nata come un’organizzazione non-profit con l’obiettivo di garantire che l’intelligenza artificiale porti benefici a tutta l’umanità, ma la sua successiva trasformazione in un’entità “capped-profit” (a profitto limitato) per attrarre i capitali necessari allo sviluppo ha introdotto una tensione intrinseca tra la sua missione originale e le logiche di mercato.
Ma mentre la prospettiva di delegare compiti complessi a sistemi autonomi può apparire allettante, apre anche a un dibattito sulla governance e sul controllo di tecnologie così potenti.
Una questione di governance, non solo di tecnologia
Sam Altman è pienamente consapevole dei rischi associati alla tecnologia che sta costruendo. È stato uno dei primi a chiedere pubblicamente una regolamentazione internazionale sull’intelligenza artificiale, testimoniando davanti al Congresso degli Stati Uniti e sostenendo la necessità di creare delle agenzie di controllo, simili a quelle che supervisionano il settore nucleare.
Questa duplice posizione, da un lato acceleratore dello sviluppo, dall’altro promotore di cautela – è uno degli aspetti più complessi della sua figura. Per i suoi sostenitori, è la prova di un approccio responsabile; per i critici, potrebbe essere una mossa strategica per plasmare le future normative a vantaggio delle aziende già dominanti, rendendo più difficile l’ingresso di nuovi concorrenti.
Il controllo di una futura super-intelligenza è l’incognita più grande.
Una volta che un sistema supera le capacità umane, come si può garantire che i suoi obiettivi rimangano allineati con il benessere dell’umanità? Questo problema, noto come problema dell’allineamento, è al centro delle preoccupazioni di molti ricercatori e filosofi. OpenAI stessa dedica ingenti risorse a questo campo di ricerca, ma ammette che non esistono ancora soluzioni definitive.
Il dilemma dell’allineamento non è solo filosofico, ma ingegneristico. Garantire che un sistema complesso rispetti regole umane non scritte richiede un salto di qualità nel modo in cui addestriamo le macchine. Non basta più programmare limiti rigidi; serve un approccio basato sul machine learning supervisionato, dove l’algoritmo impara i confini etici e operativi non da un manuale, ma dall’osservazione continua delle decisioni umane corrette, interiorizzando il “buon senso” come un pattern matematico.
La storia personale di Altman è quella di un ottimista tecnologico, convinto che l’ingegno umano possa risolvere anche i problemi che esso stesso crea.
La questione, tuttavia, rimane aperta: la corsa verso l’AGI, alimentata da una competizione globale e da enormi interessi economici, sta forse procedendo a una velocità superiore rispetto alla nostra capacità di comprenderne e gestirne le conseguenze?
Le rassicurazioni di Altman e di altri leader del settore sono sufficienti a garantire che la transizione verso un mondo con intelligenze superiori alla nostra avvenga in modo sicuro e benefico?
Le risposte a queste domande non sono tecnologiche, ma profondamente etiche e politiche, e determineranno non solo il futuro di un’azienda, ma quello della nostra intera società. La promessa di un’utopia tecnologica è sempre stata una costante nella Silicon Valley, ma mai prima d’ora la posta in gioco era stata così alta.



