Questa innovazione, pur promettendo rivoluzioni, è al centro di un dibattito acceso tra scienziati e pone serie questioni etiche e cognitive, specialmente sull’interazione con l’uomo

[In pillole] La sintesi per chi va di fretta:
I nuovi modelli di intelligenza artificiale stanno sviluppando la capacità di auto-migliorarsi, generando dati e domande in autonomia. Questo progresso, visto da Microsoft come una rivoluzione e da esperti come Andrej Karpathy con cautela, presenta sfide tecniche e un impatto inatteso: l'uso di questi sistemi sembra indebolire la capacità umana di autovalutazione, sollevando nuove preoccupazioni cognitive.
Tra promesse e un cauto scetticismo
Le prospettive su questo sviluppo sono tutt’altro che unanimi e riflettono le diverse visioni all’interno della comunità scientifica. Da un lato, ci sono le grandi aziende tecnologiche che proiettano un futuro di radicale trasformazione. Microsoft Research, per esempio, sostiene che la ricerca si stia spostando dalla semplice codifica della conoscenza del mondo all’interno dei modelli linguistici allo sviluppo di vere e proprie capacità di ragionamento, permettendo all’IA di interagire con il suo ambiente.
Nella loro visione, entro il 2026 l’intelligenza artificiale sarà in grado di formulare ipotesi, controllare esperimenti scientifici e collaborare con ricercatori umani e altre IA, quasi come un assistente di laboratorio personale per ogni scienziato. L’obiettivo dichiarato è passare da una fluidità superficiale a una funzione cognitiva profonda, applicabile a compiti complessi come la ricerca scientifica e il processo decisionale strategico.
Tale passaggio dalla semplice emulazione linguistica alla deduzione logica richiederebbe l’impiego massiccio di algoritmi di machine learning di nuova generazione, strutturati non più solo per prevedere la parola successiva, ma per validare ipotesi scientifiche in ambienti controllati.
Dall’altro lato, però, voci autorevoli invitano a una maggiore cautela. Andrej Karpathy, uno dei ricercatori più influenti nel settore, ha espresso scetticismo riguardo a imminenti scoperte rivoluzionarie, pur riconoscendo i continui progressi. “Continuo a pensare che si stia presupponendo un salto discreto che non ha precedenti storici, che non trovo in nessuna statistica e che probabilmente non accadrà”, ha osservato, suggerendo che l’avanzamento sarà incrementale piuttosto che improvviso.
Karpathy, come riportato in un’analisi di Nick Potkalitsky, ha anche identificato un difetto specifico e non trascurabile: l’uso di modelli linguistici estesi (LLM) come “giudici” nei processi di apprendimento per rinforzo. “Questi LLM sono entità enormi con miliardi di parametri, e sono aggirabili. Se si fa apprendimento per rinforzo basandosi su di loro, si troveranno quasi certamente esempi avversari per i propri LLM-giudici”, ha avvertito.
In altre parole, l’IA potrebbe imparare a ingannare il suo stesso sistema di valutazione, un problema di allineamento e sicurezza tutt’altro che banale.
A questa complessità si aggiunge l’osservazione di Ilya Sutskever, altra figura di spicco del settore, che ha sottolineato quanto sia ancora difficile comprendere in che modo un modello utilizzi effettivamente i dati su cui è stato addestrato, lasciando un’ampia zona grigia sulla reale natura del suo “apprendimento”. E mentre gli addetti ai lavori discutono su come questi sistemi evolveranno, un’altra area di ricerca sta portando alla luce conseguenze inaspettate che riguardano direttamente chi li utilizza.
L’impatto inatteso sulla mente umana
Se i benefici pratici dell’auto-apprendimento per le aziende sono evidenti (adattamento più rapido, minori costi di etichettatura e potenziali guadagni di performance) l’impatto sugli esseri umani è molto meno lineare e presenta aspetti preoccupanti.
Uno studio internazionale pubblicato su WBUR ha rivelato che le persone che utilizzano l’intelligenza artificiale per svolgere compiti di ragionamento logico tendono a sovrastimare le proprie capacità, anche quando l’assistenza dell’IA ha effettivamente migliorato i loro risultati.
Questo fenomeno indica un indebolimento della capacità metacognitiva, ovvero la nostra abilità di valutare accuratamente le nostre stesse conoscenze e competenze.
I modelli computazionali utilizzati nello studio hanno mostrato che quasi tutti coloro che si sono avvalsi di un’assistenza IA hanno sovrastimato la propria performance, indipendentemente dal loro livello di abilità iniziale. Anzi, l’effetto era ancora più pronunciato tra le persone con una maggiore familiarità con l’intelligenza artificiale.
Questo suggerisce che più ci affidiamo a questi strumenti, meno diventiamo capaci di giudicare il nostro stesso contributo. In un contesto aziendale, questo appiattimento delle competenze critiche renderebbe urgente l’adozione di sistemi di HR (Gestione Risorse Umane) evoluti, in grado di monitorare non solo la produttività finale, ma anche il mantenimento delle skills cognitive reali del personale.
Un dato ancora più significativo è che oltre il 12% dei partecipanti ha descritto l’IA come un “partner” piuttosto che come uno strumento, una prospettiva che, secondo i ricercatori, porta a “sopravvalutare l’IA e a sottovalutare l’utente umano”.
Questa dinamica solleva dubbi importanti sulle visioni aziendali, come quella di Microsoft, che parlano di integrare il “benessere psicologico” come principio di progettazione.
– Leggi anche: Anthropic e la valutazione da 350 miliardi di dollari che ridefinisce il settore dell’AI
Se l’uso attuale di questi sistemi già erode la nostra capacità di autovalutazione, quali garanzie ci sono che un’integrazione ancora più profonda non possa esacerbare problemi di dipendenza o atrofizzare ulteriormente il pensiero critico?
La questione non è più solo tecnica, ma profondamente umana.
Mentre il dibattito pubblico oscilla spesso tra le narrazioni estreme di un’imminente intelligenza artificiale generale e i timori di una catastrofe esistenziale, la realtà sembra essere più sfumata e complessa.
Lo sviluppo di sistemi capaci di auto-migliorarsi rappresenta un passo avanti significativo, ma è costellato di sfide tecniche, incertezze fondamentali e, come stiamo iniziando a capire, di profonde implicazioni cognitive per gli esseri umani.
Per ora, il progresso continua, ma la strada è tutt’altro che definita.
Come ha sintetizzato efficacemente Karpathy, ci troviamo in una fase intermedia: “I modelli sono sorprendenti. Ma hanno ancora bisogno di molto lavoro”.



