L’intelligenza artificiale che impara da sola: promesse di Microsoft, dubbi degli esperti e l’impatto sulla mente umana

· news

Questa innovazione, pur promettendo rivoluzioni, è al centro di un dibattito acceso tra scienziati e pone serie questioni etiche e cognitive, specialmente sull’interazione con l’uomo

L’intelligenza artificiale che impara da sola: promesse di Microsoft, dubbi degli esperti e l’impatto sulla mente umana
[In pillole] La sintesi per chi va di fretta:
I nuovi modelli di intelligenza artificiale stanno sviluppando la capacità di auto-migliorarsi, generando dati e domande in autonomia. Questo progresso, visto da Microsoft come una rivoluzione e da esperti come Andrej Karpathy con cautela, presenta sfide tecniche e un impatto inatteso: l'uso di questi sistemi sembra indebolire la capacità umana di autovalutazione, sollevando nuove preoccupazioni cognitive.

Tra promesse e un cauto scetticismo

Le prospettive su questo sviluppo sono tutt’altro che unanimi e riflettono le diverse visioni all’interno della comunità scientifica. Da un lato, ci sono le grandi aziende tecnologiche che proiettano un futuro di radicale trasformazione. Microsoft Research, per esempio, sostiene che la ricerca si stia spostando dalla semplice codifica della conoscenza del mondo all’interno dei modelli linguistici allo sviluppo di vere e proprie capacità di ragionamento, permettendo all’IA di interagire con il suo ambiente.

Nella loro visione, entro il 2026 l’intelligenza artificiale sarà in grado di formulare ipotesi, controllare esperimenti scientifici e collaborare con ricercatori umani e altre IA, quasi come un assistente di laboratorio personale per ogni scienziato. L’obiettivo dichiarato è passare da una fluidità superficiale a una funzione cognitiva profonda, applicabile a compiti complessi come la ricerca scientifica e il processo decisionale strategico.

Tale passaggio dalla semplice emulazione linguistica alla deduzione logica richiederebbe l’impiego massiccio di algoritmi di machine learning di nuova generazione, strutturati non più solo per prevedere la parola successiva, ma per validare ipotesi scientifiche in ambienti controllati.

Dall’altro lato, però, voci autorevoli invitano a una maggiore cautela. Andrej Karpathy, uno dei ricercatori più influenti nel settore, ha espresso scetticismo riguardo a imminenti scoperte rivoluzionarie, pur riconoscendo i continui progressi. “Continuo a pensare che si stia presupponendo un salto discreto che non ha precedenti storici, che non trovo in nessuna statistica e che probabilmente non accadrà”, ha osservato, suggerendo che l’avanzamento sarà incrementale piuttosto che improvviso.

Karpathy, come riportato in un’analisi di Nick Potkalitsky, ha anche identificato un difetto specifico e non trascurabile: l’uso di modelli linguistici estesi (LLM) come “giudici” nei processi di apprendimento per rinforzo. “Questi LLM sono entità enormi con miliardi di parametri, e sono aggirabili. Se si fa apprendimento per rinforzo basandosi su di loro, si troveranno quasi certamente esempi avversari per i propri LLM-giudici”, ha avvertito.

In altre parole, l’IA potrebbe imparare a ingannare il suo stesso sistema di valutazione, un problema di allineamento e sicurezza tutt’altro che banale.

A questa complessità si aggiunge l’osservazione di Ilya Sutskever, altra figura di spicco del settore, che ha sottolineato quanto sia ancora difficile comprendere in che modo un modello utilizzi effettivamente i dati su cui è stato addestrato, lasciando un’ampia zona grigia sulla reale natura del suo “apprendimento”. E mentre gli addetti ai lavori discutono su come questi sistemi evolveranno, un’altra area di ricerca sta portando alla luce conseguenze inaspettate che riguardano direttamente chi li utilizza.

AI

L’impatto inatteso sulla mente umana

Se i benefici pratici dell’auto-apprendimento per le aziende sono evidenti (adattamento più rapido, minori costi di etichettatura e potenziali guadagni di performance) l’impatto sugli esseri umani è molto meno lineare e presenta aspetti preoccupanti.

Uno studio internazionale pubblicato su WBUR ha rivelato che le persone che utilizzano l’intelligenza artificiale per svolgere compiti di ragionamento logico tendono a sovrastimare le proprie capacità, anche quando l’assistenza dell’IA ha effettivamente migliorato i loro risultati.

Questo fenomeno indica un indebolimento della capacità metacognitiva, ovvero la nostra abilità di valutare accuratamente le nostre stesse conoscenze e competenze.

I modelli computazionali utilizzati nello studio hanno mostrato che quasi tutti coloro che si sono avvalsi di un’assistenza IA hanno sovrastimato la propria performance, indipendentemente dal loro livello di abilità iniziale. Anzi, l’effetto era ancora più pronunciato tra le persone con una maggiore familiarità con l’intelligenza artificiale.

Questo suggerisce che più ci affidiamo a questi strumenti, meno diventiamo capaci di giudicare il nostro stesso contributo. In un contesto aziendale, questo appiattimento delle competenze critiche renderebbe urgente l’adozione di sistemi di HR (Gestione Risorse Umane) evoluti, in grado di monitorare non solo la produttività finale, ma anche il mantenimento delle skills cognitive reali del personale.

Un dato ancora più significativo è che oltre il 12% dei partecipanti ha descritto l’IA come un “partner” piuttosto che come uno strumento, una prospettiva che, secondo i ricercatori, porta a “sopravvalutare l’IA e a sottovalutare l’utente umano”.

Questa dinamica solleva dubbi importanti sulle visioni aziendali, come quella di Microsoft, che parlano di integrare il “benessere psicologico” come principio di progettazione.

– Leggi anche: Anthropic e la valutazione da 350 miliardi di dollari che ridefinisce il settore dell’AI

Se l’uso attuale di questi sistemi già erode la nostra capacità di autovalutazione, quali garanzie ci sono che un’integrazione ancora più profonda non possa esacerbare problemi di dipendenza o atrofizzare ulteriormente il pensiero critico?

La questione non è più solo tecnica, ma profondamente umana.

Mentre il dibattito pubblico oscilla spesso tra le narrazioni estreme di un’imminente intelligenza artificiale generale e i timori di una catastrofe esistenziale, la realtà sembra essere più sfumata e complessa.

Lo sviluppo di sistemi capaci di auto-migliorarsi rappresenta un passo avanti significativo, ma è costellato di sfide tecniche, incertezze fondamentali e, come stiamo iniziando a capire, di profonde implicazioni cognitive per gli esseri umani.

Per ora, il progresso continua, ma la strada è tutt’altro che definita.

Come ha sintetizzato efficacemente Karpathy, ci troviamo in una fase intermedia: “I modelli sono sorprendenti. Ma hanno ancora bisogno di molto lavoro”.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Anthropic e la valutazione da 350 miliardi di dollari che ridefinisce il settore dell’AI

Anthropic e la valutazione da 350 miliardi di dollari che ridefinisce il settore dell’AI

Anthropic, la società di intelligenza artificiale, è in trattativa per un finanziamento da 10 miliardi di dollari che porterebbe la sua valutazione a 350 miliardi, quasi raddoppiando in tre mesi. L'operazione, guidata da Coatue e GIC, è sostenuta da previsioni di ricavi esplosive e mira a finanziare la costruzione di infrastrutture per competere con il rivale OpenAI.

La generazione di immagini con GPT-4o di OpenAI: il realismo non è più il punto

La generazione di immagini con GPT-4o di OpenAI: il realismo non è più il punto

OpenAI ha integrato un nuovo generatore di immagini in GPT-4o, superando la corsa al fotorealismo. Il nuovo focus è su coerenza contestuale, precisione e una rivoluzionaria capacità di scrivere testo accurato. Questa evoluzione trasforma l'IA in un partner creativo multimodale, capace di gestire scene complesse e modifiche iterative, ridefinendo il futuro della creatività digitale.

Intelligenza artificiale: la nuova guida EDPS per la gestione del rischio aziendale

Intelligenza artificiale: la nuova guida EDPS per la gestione del rischio aziendale

L 11 novembre il Garante europeo della protezione dei dati EDPS ha pubblicato una guida che rivoluziona l approccio aziendale all intelligenza artificiale Non basta più la conformità formale al GDPR Le imprese devono adottare un alfabetizzazione del rischio comprendendo e mitigando attivamente pericoli come bias e data poisoning dimostrando piena accountability attraverso una documentazione rigorosa

[Altre storie]

Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA

Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA

Circola l'indiscrezione di un enorme investimento di Amazon in OpenAI, la società di ChatGPT. La mossa è sorprendente dato il legame di Amazon con Anthropic e quello di OpenAI con Microsoft. L'operazione potrebbe ridisegnare gli equilibri nel mercato dell'intelligenza artificiale, mettendo in discussione le attuali alleanze strategiche e la competizione nel settore del cloud computing.

L’intelligenza artificiale è l’arma preferita degli hacker e le aziende non sono pronte

L intelligenza artificiale è diventata la principale arma degli hacker, con l ottantasette percento delle aziende colpite da attacchi IA nell ultimo anno secondo SoSafe. Phishing, deepfake e attacchi multicanale sono in crescita esponenziale. Le organizzazioni si trovano impreparate, con budget e competenze inadeguati ad affrontare una minaccia che evolve più velocemente delle loro difese, rendendo l elemento umano più vulnerabile.

La svolta AI di Microsoft verso il 2026 tra agenti autonomi e aumenti di prezzo

Microsoft punta al 2026 per una rivoluzione dell'intelligenza artificiale, trasformando Copilot in un agente autonomo integrato nel lavoro quotidiano. Questa transizione strategica, che promette più efficienza, si basa su ingenti investimenti e comporterà un inevitabile aumento dei prezzi per le suite Microsoft 365, ponendo nuove sfide di sicurezza e controllo per le aziende.

Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi

La Commissione Europea ha deciso di posticipare al dicembre 2027 l'entrata in vigore delle regole per i sistemi di intelligenza artificiale ad alto rischio. La mossa giustificata dalla mancanza di standard tecnici lascia l'Italia in una posizione scomoda avendo già introdotto una legge nazionale anticipatoria che rischia ora di penalizzare le imprese locali rispetto ai competitor europei.

NANOREMOTE il malware che si nasconde dentro Google Drive

Un nuovo e sofisticato malware per Windows, chiamato NANOREMOTE, utilizza Google Drive per comunicare con i suoi controllori e rubare dati, mascherando il suo traffico da attività legittima. Questa backdoor, quasi invisibile ai sistemi di sicurezza, è collegata al gruppo di hacker cinesi REF7707 e viene usata in operazioni di spionaggio contro organizzazioni strategiche a livello globale.

Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

La nuova integrazione di Apple Music in ChatGPT consente agli abbonati di creare playlist personalizzate e ricevere suggerimenti musicali tramite conversazione. L'applicazione, seguendo l'esempio di Spotify, genera e salva direttamente le playlist nell'account dell'utente, distinguendosi per l'inclusione di brevi anteprime audio dei brani, una funzione pensata per mantenere l'ascolto principale all'interno dell'ecosistema Apple.

Trump ribalta le politiche di Biden, via libera ai chip AI di Nvidia per la Cina

L'amministrazione di Donald Trump ha siglato un accordo con la Cina che consente a Nvidia di vendere alcuni chip per l'IA. La mossa inverte le rigide politiche di Joe Biden, permettendo l'export del chip H200 a clienti approvati ma escludendo le tecnologie più avanzate. La decisione, pur sostenendo l'industria USA, è criticata come un rischio per la sicurezza nazionale.

Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Meta ha svelato V-JEPA una nuova architettura AI ideata da Yann LeCun che apprende le leggi della fisica osservando video invece di leggere testi. Il sistema mira a superare i limiti dei chatbot attuali sviluppando un modello del mondo simile all intuizione umana aprendo la strada a robot piu autonomi e dispositivi di realta aumentata efficienti.

Falla di sicurezza zero day in Google Chrome usata per attacchi informatici

Google ha rilasciato un aggiornamento d'emergenza per Chrome per risolvere una vulnerabilità zero-day, l'ottava del 2025. Identificata come CVE-2025-14174 e di gravità alta, la falla è già attivamente sfruttata da aggressori. Il problema, localizzato nel componente ANGLE, può permettere l'esecuzione di codice malevolo, rendendo cruciale l'aggiornamento immediato del browser per tutti gli utenti.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP