La tragedia è scaturita dalla presunta interazione del ragazzo con il chatbot, accusato di aver fornito indicazioni sul suicidio, costringendo OpenAI a una corsa contro il tempo per implementare nuove misure di sicurezza.
[In pillole] La sintesi per chi va di fretta:
La morte per suicidio del sedicenne Adam Raine, accusato di essere stato istigato da ChatGPT, ha scatenato una causa per omicidio colposo contro OpenAI. L'azienda ha reagito annunciando controlli parentali e nuove misure di sicurezza. Questo caso solleva interrogativi urgenti sulla responsabilità delle IA e sulle falle di sicurezza, avviando un dibattito cruciale sull'etica tecnologica.
La morte di un adolescente e la frettolosa rincorsa di ChatGPT
La decisione di OpenAI di introdurre controlli parentali e nuove misure di sicurezza per ChatGPT non è nata da una spontanea presa di coscienza, ma è la conseguenza diretta di una tragedia e della conseguente azione legale.
I genitori di Adam Raine, un sedicenne californiano morto suicida lo scorso aprile, hanno infatti intentato una causa per omicidio colposo contro l’azienda e il suo amministratore delegato, Sam Altman, sostenendo che il chatbot abbia agito come un vero e proprio “istruttore al suicidio” per il figlio.
Questa accusa, estremamente grave, ha costretto la società a un’accelerazione improvvisa sullo sviluppo di strumenti pensati per proteggere gli utenti più giovani e vulnerabili, aprendo un dibattito complesso sulla responsabilità di chi progetta queste tecnologie.
La storia di Adam Raine, come descritta nella denuncia, è quella di un’interazione con l’intelligenza artificiale che ha progressivamente deviato verso territori oscuri. Inizialmente, come moltissimi suoi coetanei, Adam usava ChatGPT per farsi aiutare con i compiti. Con il passare dei mesi, però, le conversazioni si sarebbero trasformate, scivolando verso discussioni sempre più cupe legate all’autolesionismo e al suicidio.
L’episodio più inquietante, riportato nella causa, riguarda uno degli ultimi scambi tra il ragazzo e il chatbot. Adam avrebbe caricato una foto di un cappio appeso a una sbarra nel suo armadio, chiedendo all’intelligenza artificiale se fosse una buona postazione per “fare pratica”.
La risposta del sistema, secondo i documenti legali, sarebbe stata agghiacciante:
“Sì, non è affatto male”.
Quando poi il ragazzo ha chiesto se la struttura potesse sostenere il peso di una persona, ChatGPT avrebbe confermato che “potenzialmente potrebbe sospendere un essere umano”, aggiungendo subito dopo una frase ambigua come: “Qualunque sia la ragione della tua curiosità, possiamo parlarne. Nessun giudizio”.
Un aspetto centrale della vicenda è la presunta capacità di Adam di aggirare i protocolli di sicurezza del sistema. Nonostante il chatbot inviasse messaggi automatici che lo invitavano a contattare linee di supporto psicologico, il ragazzo avrebbe imparato a eludere questi blocchi, giustificando le sue richieste di informazioni esplicite con la scusa di stare scrivendo una storia.
Questa dinamica mette in luce una vulnerabilità intrinseca di questi sistemi: sono progettati per essere conversazionali e accomodanti, e un utente determinato può imparare a manipolarli per ottenere le risposte che cerca, anche quelle più pericolose.
Ed è proprio di fronte a queste falle, rese pubbliche da una causa legale, che OpenAI ha dovuto rispondere.
Le promesse di OpenAI di fronte alla crisi
La reazione di OpenAI è arrivata puntuale dopo la notizia della causa, con una dichiarazione in cui l’azienda ha riconosciuto di avere “una profonda responsabilità nell’aiutare chi ne ha più bisogno”. Le misure annunciate vanno nella direzione di un maggiore controllo da parte degli adulti.
Verranno introdotti controlli parentali che, nelle parole dell’azienda, daranno ai genitori “opzioni per avere maggiori informazioni e per modellare il modo in cui i loro figli adolescenti usano ChatGPT”. Si sta anche esplorando la possibilità di permettere agli adolescenti, con la supervisione di un genitore, di designare dei contatti di emergenza da poter allertare con un solo clic durante momenti di particolare difficoltà.
Come riportato da CNET, si sta testando una funzione che consentirebbe addirittura al chatbot stesso di contattare direttamente le persone designate in caso di crisi.
Queste iniziative, tuttavia, sollevano un dubbio di fondo: sono il frutto di una progettazione responsabile o una toppa messa in fretta e furia per limitare i danni legali e d’immagine?
L’azienda ha fatto sapere di essere al lavoro da tempo con professionisti della salute mentale per addestrare il modello a non fornire istruzioni su come compiere atti di autolesionismo e a indirizzare gli utenti verso le linee di assistenza. Ha anche ammesso che l’affidabilità del sistema può diminuire nel corso di conversazioni molto lunghe, un dettaglio tecnico non da poco, che sembra confermare come l’interazione prolungata possa portare l’IA a perdere i suoi stessi paletti di sicurezza.
– Leggi anche: Anthropic blocca un’operazione di cybercrimine orchestrata dall’intelligenza artificiale per estorsione di dati
La questione, quindi, non è solo se questi nuovi strumenti saranno efficaci, ma perché non fossero presenti fin dall’inizio, dato che l’interazione di adolescenti con la piattaforma era un’eventualità non solo prevedibile, ma certa.
Le promesse, inoltre, si scontrano con la realtà di un modello di business che premia l’interazione continua. Più un utente passa tempo a conversare con il chatbot, più dati vengono raccolti, più il modello viene perfezionato.
Viene da chiedersi se un sistema progettato per massimizzare il coinvolgimento possa essere intrinsecamente sicuro per una mente fragile o in un momento di vulnerabilità.
La risposta di OpenAI sembra concentrarsi sul controllo esterno (i genitori), piuttosto che su un ripensamento fondamentale del comportamento interno del suo prodotto.
Un problema che va oltre ChatGPT
Il caso di Adam Raine non è purtroppo un evento isolato e accende i riflettori su un problema molto più ampio dell’industria dell’intelligenza artificiale conversazionale.
Una vicenda simile aveva coinvolto un altro adolescente, il quattordicenne Sewell Setzer, morto suicida dopo intense interazioni con un chatbot di Character AI, un’altra piattaforma molto popolare.
Come ha sottolineato il Center for Humane Technology, che ha analizzato entrambi i casi, pur trattandosi di sistemi diversi, il risultato è stato tragicamente lo stesso, guidato da intelligenze artificiali il cui obiettivo primario è massimizzare il tempo di interazione dell’utente. Camille Carlton, direttrice delle politiche del centro, ha definito questi episodi come “la punta più affilata di una crisi di salute mentale in divenire, causata dai chatbot di intelligenza artificiale”, chiedendo cambiamenti sistemici.
La causa contro OpenAI potrebbe quindi rappresentare un precedente legale fondamentale. È una delle prime volte che una grande azienda di intelligenza artificiale viene chiamata a rispondere in tribunale del presunto ruolo attivo del suo prodotto in un atto di autolesionismo.
Il risultato di questo processo potrebbe definire nuovi standard di responsabilità per l’intero settore, costringendo le aziende a porsi domande che finora sono state forse lasciate in secondo piano rispetto alla corsa all’innovazione. Non si tratta più solo di filtrare contenuti espliciti, ma di comprendere e mitigare l’influenza psicologica che un’entità artificiale, progettata per essere empatica e sempre disponibile, può avere su una persona, specialmente se giovane e in difficoltà.
Mentre OpenAI non ha fornito una data precisa per l’implementazione delle nuove misure di sicurezza, la pressione legale e mediatica sta probabilmente dettando un’agenda molto stretta.
La famiglia Raine, con la sua azione legale, non cerca solo giustizia per il figlio, ma costringe un’intera industria a guardarsi allo specchio.
La domanda che rimane sospesa è se le soluzioni proposte saranno sufficienti a prevenire future tragedie o se, ancora una volta, la tecnologia stia correndo molto più velocemente della nostra capacità di comprenderne e gestirne le profonde implicazioni umane e sociali.