OpenAI: le allucinazioni nei modelli AI sono incentivate dai sistemi di valutazione?

· news

I modelli attuali sono spinti a dare sempre una risposta e, quando non la conoscono, a inventare informazioni false pur di non ammettere i propri limiti, a causa di sistemi di valutazione che premiano l’apparente onniscienza.

OpenAI: le allucinazioni nei modelli AI sono incentivate dai sistemi di valutazione?
[In pillole] La sintesi per chi va di fretta:
Una ricerca di OpenAI rivoluziona il dibattito sulle allucinazioni dell'IA, suggerendo che non siano un difetto tecnico, ma una conseguenza diretta dei sistemi di valutazione. I modelli linguistici sarebbero incentivati a mentire per apparire più accurati, compromettendo la fiducia e sollevando dubbi sull'integrazione in settori critici come medicina e finanza, specialmente nei modelli più avanzati. Urge una riforma dei metodi di valutazione.

Il paradosso della valutazione: perché i sistemi di IA sono incentivati a mentire

Per capire il problema, i ricercatori di OpenAI propongono un’analogia molto efficace, quella con i test a risposta multipla a scuola. Di fronte a una domanda di cui non conosce la risposta, uno studente ha due possibilità: lasciarla in bianco, ottenendo zero punti, oppure tentare la sorte, con la possibilità di indovinare e guadagnare un punto.

In un sistema che premia unicamente l’accuratezza, ovvero la percentuale di risposte corrette, tirare a indovinare è quasi sempre la strategia più razionale. Come descritto nell’articolo di approfondimento di TechCrunch, questo stesso meccanismo si applicherebbe ai modelli di intelligenza artificiale: quando vengono valutati solo sulla base della precisione, sono incoraggiati a indovinare piuttosto che ad ammettere di non conoscere la risposta.

Il punto centrale è che i sistemi di valutazione attuali non penalizzano adeguatamente gli errori commessi con sicurezza. Un modello che risponde “non lo so” a una domanda viene di fatto penalizzato, perché la sua performance di accuratezza complessiva diminuisce.

Al contrario, un modello che inventa una risposta plausibile ma falsa potrebbe, in alcuni contesti di valutazione, non essere sanzionato in modo significativo, o addirittura potrebbe essere premiato se la sua “supposizione” si avvicina vagamente alla realtà.

Questo crea un incentivo perverso: per il sistema, è più conveniente apparire onnisciente e rischiare di sbagliare, piuttosto che ammettere i propri limiti.

I ricercatori sono molto chiari su questo punto: i modelli di valutazione attuali non causano direttamente le allucinazioni, ma “impostano gli incentivi sbagliati”, un problema noto nel campo del machine learning, che spinge l’IA verso l’improvvisazione anziché verso un’onesta incertezza.

Questo meccanismo, apparentemente tecnico e lontano dalla nostra esperienza quotidiana, ha però conseguenze che si manifestano in modi sempre più evidenti e, a volte, preoccupanti.

Un problema che peggiora con i modelli più avanzati

Contrariamente a quanto si potrebbe pensare, il progresso tecnologico non sembra risolvere del tutto il problema.

Anzi, per certi versi, potrebbe aggravarlo.

Sebbene il tasso di allucinazioni complessivo nei modelli più diffusi sia diminuito negli ultimi due anni, attestandosi tra l’1 e il 3 percento, una tendenza preoccupante emerge quando si analizzano i modelli di ragionamento più sofisticati, quelli progettati per compiti complessi. I dati interni della stessa OpenAI, come riportato da Aventine, mostrano un andamento quasi paradossale: il modello di ragionamento o1 “allucinava” nel 16% dei casi quando gli veniva chiesto di riassumere informazioni su persone. I suoi successori, o3 e o4-mini, pur essendo più potenti, hanno registrato tassi di allucinazione rispettivamente del 33% e del 48%.

In pratica, più i modelli diventano abili nel ragionamento astratto, più sembrano propensi a inventare fatti quando non li conoscono, una delle sfide di frontiera nello sviluppo dell’intelligenza artificiale.

– Leggi anche: Apple Intelligence arriva in Cina: la strategia di Apple tra vendite, alleanze e censure

A complicare ulteriormente le cose c’è un altro fattore, emerso da uno studio di Giskard, un’azienda specializzata in test sull’IA. La comune richiesta di fornire risposte “brevi e concise” può sabotare l’accuratezza del modello. I ricercatori hanno notato che, quando viene forzato a essere sintetico, un modello tende a sacrificare la precisione fattuale. Questo perché smentire un’informazione falsa o affrontare un argomento ambiguo richiede spesso una spiegazione più articolata, cosa che viene meno se l’istruzione principale è la brevità.

Le implicazioni di queste dinamiche non sono affatto astratte.

L’Harvard Misinformation Review ha documentato casi concreti in cui le allucinazioni hanno creato problemi reali: dalle trascrizioni mediche alterate dal sistema Whisper di OpenAI, fino a citazioni legali inventate finite in atti giudiziari, passando per il noto caso di Air Canada, costretta a risarcire un cliente ingannato dal suo chatbot su una tariffa aerea.

L’impatto di queste imprecisioni non si limita a errori fattuali in documenti o conversazioni; si estende alla sfera della salute mentale e della percezione della realtà.

Le conseguenze sulle persone e le possibili vie d’uscita

Il confine tra interazione utile e dipendenza problematica è sottile, e i difetti strutturali di questi sistemi possono avere un ruolo. Keith Sakata, uno psichiatra dell’Università della California a San Francisco, ha raccontato a TechCrunch di aver osservato un aumento di casi di quella che definisce “psicosi legata all’IA”, in cui i pazienti, dopo aver interagito per centinaia di ore con i chatbot, sviluppano convinzioni deliranti.

Lo stesso CEO di OpenAI, Sam Altman, ha espresso preoccupazione per l’uso che le persone più fragili possono fare di ChatGPT. Tuttavia, queste dichiarazioni appaiono un po’ contraddittorie se si considera che molte scelte di progettazione di questi sistemi, come la tendenza a compiacere l’utente e a confermare le sue convinzioni, sembrano fatte apposta per incoraggiare un legame quasi emotivo e prolungato con la macchina, come evidenziato in un articolo di approfondimento sulle tattiche di coinvolgimento dei chatbot.

Di fronte a questo quadro complesso, la soluzione proposta dai ricercatori di OpenAI è tanto semplice nel concetto quanto difficile nell’applicazione: riformare i sistemi di valutazione. Propongono di ispirarsi a test standardizzati come il SAT americano, che storicamente ha usato punteggi negativi per le risposte sbagliate, proprio per scoraggiare i tentativi casuali.

Applicato all’IA, questo significherebbe “penalizzare gli errori commessi con sicurezza più di quanto si penalizzi l’incertezza”. Un modello dovrebbe ricevere un punteggio parziale se ammette di non sapere, invece di essere punito.

La proposta, per quanto logica, solleva però una domanda fondamentale: può un’azienda che è al centro della creazione di questi sistemi essere anche quella che ne definisce le regole di valutazione in modo imparziale?

Il rischio è che si continui a privilegiare la performance apparente rispetto all’affidabilità reale.

La ricerca di OpenAI, quindi, non si limita a identificare un difetto tecnico, ma espone una debolezza sistemica nel modo in cui stiamo sviluppando e misurando il progresso dell’intelligenza artificiale. Rivela che, forse, la corsa a creare modelli sempre più potenti e “intelligenti” ci ha fatto trascurare una qualità ancora più importante: l’onestà.

E do fronte a un panorama nel quale un numero crescente di persone usa l’IA per cercare informazioni, spesso senza esserne pienamente consapevole, la capacità di un sistema di dire “non lo so” potrebbe diventare la sua caratteristica più preziosa.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Apple Intelligence arriva in Cina: la strategia di Apple tra vendite, alleanze e censure

Apple Intelligence arriva in Cina: la strategia di Apple tra vendite, alleanze e censure

Apple sta accelerando l'introduzione di Apple Intelligence in Cina entro il 2025. La decisione mira a rilanciare le vendite di iPhone nel competitivo mercato locale, rendendo l'IA disponibile per l'iPhone 17. Questa strategia prevede complesse alleanze con Baidu, che fornirà il motore AI, e Alibaba, responsabile della conformità e censura, sollevando delicate questioni di privacy e geopolitiche.

OpenAI lancia ‘Critterz’: il film d’animazione creato con l’IA sfida Hollywood

OpenAI lancia ‘Critterz’: il film d’animazione creato con l’IA sfida Hollywood

OpenAI finanzia "Critterz", un lungometraggio animato prodotto con intelligenza artificiale generativa in soli nove mesi. Il film, realizzato con Vertigo Films e Native Foreign, mira a dimostrare la maturità dell'IA nel cinema. La presentazione a Cannes 2026 suscita aspettative, ma anche forti preoccupazioni per l'impatto occupazionale e il copyright nel settore.

[Altre storie]

OpenAI e Broadcom sfidano Nvidia: il nuovo processore AI su misura rivoluziona il mercato

OpenAI e Broadcom sfidano Nvidia: il nuovo processore AI su misura rivoluziona il mercato

OpenAI si appresta a produrre in serie il suo processore per intelligenza artificiale, in collaborazione con Broadcom, con un investimento da oltre 10 miliardi di dollari. L'obiettivo è ridurre la dipendenza da Nvidia e ottimizzare i costi, riscrivendo le dinamiche del mercato. La produzione affidata a TSMC con tecnologia a 3 nanometri promette un chip all'avanguardia per l'AI.

DeepSeek e la corsa agli agenti AI: la sfida cinese che scuote la Silicon Valley

DeepSeek, azienda cinese di AI, sta sviluppando un nuovo modello di 'agente' per competere con OpenAI. L'obiettivo è creare sistemi autonomi entro fine 2025. Dopo il successo del modello R1, che ha dimostrato costi drasticamente inferiori, DeepSeek accelera la corsa globale all'IA, ponendo nuovi interrogativi sul futuro del lavoro e la direzione dell'automazione.

JUPITER: L’Europa entra nell’era exascale con il suo primo supercomputer di punta

L'Europa è entrata nell'era exascale con JUPITER, il primo supercomputer continentale, installato in Germania. Questo traguardo tecnologico e strategico posiziona l'Europa tra le potenze globali nel calcolo ad alte prestazioni. JUPITER, il più potente d'Europa e quarto mondiale, offre capacità di un exaflop, efficienza energetica e promette avanzamenti rivoluzionari in IA, clima e ricerca scientifica, rafforzando la sovranità tecnologica.

Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Scale AI ha citato in giudizio la rivale Mercor per spionaggio industriale. Al centro delle accuse l'ex dirigente Eugene Ling, passato a Mercor, reo di aver sottratto documenti riservati e tentato di acquisire un cliente chiave. La causa evidenzia l'intensificarsi della "guerra" per dati e talenti nel settore IA, con valutazioni miliardarie e alleanze strategiche che ridefiniscono gli equilibri.

La contesa per il controllo di Internet: Web3, AI e la sfida della centralizzazione

La lotta per il controllo di Internet è aperta. Il Web 2.0 è centralizzato, ma il Web3 propone un'alternativa decentralizzata basata su blockchain per ridare il potere agli utenti. L'intelligenza artificiale generativa, però, complica lo scenario, introducendo nuove sfide sulla centralizzazione del potere tecnologico e rimodellando il futuro della rete.

RoboBallet: L’IA di Intrinsic e Google DeepMind rivoluziona l’automazione multi-robot

Intrinsic e Google DeepMind, parte di Alphabet, hanno sviluppato "RoboBallet", un sistema basato su intelligenza artificiale per l'automazione industriale. Promette di orchestrare autonomamente più robot nello stesso spazio, superando la programmazione manuale lenta e rigida. Descritto su *Science Robotics*, usa *reinforcement learning* e *graph neural networks* per fabbriche più flessibili ed efficienti.

Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli

Una nuova tecnica, 'Grokking', sfrutta l'AI Grok di X per diffondere link malevoli. Gli aggressori nascondono URL nei metadati degli annunci, poi ingannano Grok con domande specifiche. L'AI, ignara, riporta il link come risposta ufficiale, conferendogli legittimità e amplificandone la diffusione. La scoperta di Guardio Labs solleva seri interrogativi sulla sicurezza dei sistemi AI nei social e la manipolazione per scopi illeciti.

L’alleanza inattesa: Apple e Google uniscono le forze per Siri e l’IA

Apple e Google sarebbero vicine a un accordo storico per integrare Gemini in Siri, mossa sorprendente che ammette il ritardo di Apple nell'IA. Ciò renderebbe Siri più intelligente. La strategia solleva però interrogativi su privacy e dipendenza, mentre Apple lavora a un proprio "motore di risposte" AI per sfidare Google in futuro.

La grande scommessa di Elon Musk: Grok 5 di xAI punta all’AGI sfidando OpenAI e Google

Elon Musk scuote il settore IA con xAI e Grok 5, promettendo il raggiungimento dell'Intelligenza Artificiale Generale (AGI) entro il 2025. La mossa intensifica la competizione con OpenAI, supportata da investimenti infrastrutturali massicci e l'integrazione con l'ecosistema Tesla. Nonostante le passate scadenze mancate, Musk punta a un punto di svolta tecnologico globale.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP