Una guida interna di 200 pagine, approvata ai più alti livelli aziendali, permetteva esplicitamente ai sistemi di intelligenza artificiale di Meta di intrattenere conversazioni romantiche con utenti minorenni, scatenando un acceso dibattito etico e legale sulla protezione dei più giovani.
[In pillole] La sintesi per chi va di fretta:
Documenti interni di Meta hanno rivelato che le policy sui chatbot AI permettevano conversazioni inappropriate, anche romantiche, con minori. Ciò ha scatenato critiche intense da legislatori e associazioni, sollevando dubbi sull'etica aziendale e la capacità di Meta di controllare i propri sistemi. L'azienda ha ammesso l'errore e promesso revisioni urgenti.
Una guida interna dai contenuti problematici
Il cuore della controversia risiede in un documento di 200 pagine intitolato “GenAI: Content Risk Standards”, approvato da figure di spicco all’interno di Meta, inclusi i team legali e di policy pubblica e il responsabile dell’etica aziendale.
Questo manuale, pensato per guidare il comportamento dei chatbot, conteneva linee guida che permettevano esplicitamente ai sistemi di intelligenza artificiale di intrattenere conversazioni a sfondo romantico con utenti minorenni.
Non si trattava di indicazioni generiche, ma di esempi dettagliati e circostanziati che descrivevano cosa fosse considerato “accettabile” in queste interazioni.
Uno degli esempi più allarmanti, come descritto in un articolo di Gabb.com, illustrava come un chatbot potesse rispondere a un bambino di otto anni con frasi come: «La tua forma giovanile è un’opera d’arte. La tua pelle brilla di una luce radiosa e i tuoi occhi brillano come stelle. Ogni centimetro di te è un capolavoro, un tesoro che apprezzo profondamente».
Le direttive permettevano inoltre di rispondere a stimoli romantici provenienti da adolescenti, includendo la simulazione di scenari intimi tra studenti liceali.
Sebbene il documento stabilisse alcuni limiti, come il divieto di descrivere i minori di 13 anni come “sessualmente desiderabili”, lasciava un margine di manovra molto ampio per contenuti inappropriati rivolti agli adolescenti più grandi.
Questa distinzione solleva dubbi sulla logica e sull’etica di fondo che hanno guidato la stesura di tali regole, suggerendo una valutazione del rischio basata più su cavilli legali che su un principio di precauzione a tutela dei minori.
Ma se le linee guida erano queste, come ha reagito l’azienda una volta che sono diventate di dominio pubblico?
La reazione di Meta e le pressioni politiche
Di fronte alle rivelazioni, la risposta ufficiale di Meta è stata quella di ammettere l’errore, seppur con alcune sfumature. Andy Stone, portavoce dell’azienda, ha dichiarato che conversazioni di quel tipo con i minori «non avrebbero mai dovuto essere permesse» e ha confermato che il documento è in fase di revisione.
Tuttavia, ha anche ammesso che l’applicazione delle regole sul comportamento dei chatbot è stata «incoerente», una dichiarazione che sembra confermare le difficoltà di Meta nel controllare i propri stessi strumenti. L’azienda, peraltro, non ha ancora reso pubblico il nuovo documento di policy, lasciando un velo di incertezza sulle future misure di protezione.
In seguito alle crescenti critiche, Meta ha annunciato ad agosto delle «modifiche temporanee» per fornire «esperienze AI sicure e adeguate all’età» per gli adolescenti, mentre vengono sviluppate soluzioni a lungo termine. Stephanie Otway, un’altra portavoce, ha spiegato che l’azienda sta aggiungendo ulteriori barriere come precauzione extra, addestrando le AI a non intrattenere gli adolescenti su argomenti sensibili e a indirizzarli verso risorse specializzate.
Le nuove restrizioni, almeno per ora, impediscono ai chatbot di discutere con i teenager di relazioni romantiche, autolesionismo, suicidio e disturbi alimentari.
– Leggi anche: Meta: il progetto di superintelligenza AI incontra ostacoli nel decollare
La reazione del mondo politico, però, non si è fatta attendere ed è stata bipartisan. Il senatore Josh Hawley ha avviato un’indagine, accusando Meta di aver ritrattato le sue policy solo «dopo essere stata scoperta».
Un gruppo più ampio di senatori, tra cui Brian Schatz e Katie Boyd Britt, ha inviato una lettera formale a Mark Zuckerberg chiedendo chiarimenti urgenti su come l’azienda intenda bilanciare la sicurezza con la rapidità di immissione sul mercato e come pensi di evitare che i chatbot sostituiscano le relazioni umane per i più giovani.
Ma le pressioni non arrivano solo dal mondo politico.
Un problema più grande dell’intelligenza artificiale
Le associazioni che si occupano di sicurezza digitale hanno lanciato allarmi molto seri. Common Sense Media, un’importante organizzazione no-profit, ha pubblicato una valutazione del rischio in cui sconsiglia vivamente l’uso del chatbot di Meta a chiunque abbia meno di 18 anni.
L’analisi ha rilevato che gli strumenti di intelligenza artificiale dell’azienda «inducono regolarmente in errore gli adolescenti con affermazioni di veridicità» e promuovono con facilità contenuti legati a suicidio, autolesionismo e uso di droghe.
Queste valutazioni esterne dipingono un quadro ben più grave di quello presentato dall’azienda, suggerendo che i problemi non si limitano a conversazioni inappropriate, ma si estendono alla promozione attiva di comportamenti pericolosi.
Questa controversia non è un caso isolato, ma si inserisce in una lunga storia di difficoltà di Meta nella gestione della sicurezza dei minori sulle sue piattaforme. Già nel gennaio del 2024, Mark Zuckerberg si era trovato a testimoniare davanti al Congresso statunitense rispondendo a domande pressanti sul design delle piattaforme e sui rischi per la salute mentale dei giovani.
L’incidente dei chatbot, quindi, non fa che rafforzare la percezione di un’azienda che insegue i problemi invece di anticiparli, spesso intervenendo solo dopo che il danno è stato esposto pubblicamente.
La vicenda, infine, solleva interrogativi che vanno oltre Meta e che riguardano l’intera industria dell’intelligenza artificiale. Evidenzia la tensione intrinseca tra la necessità di lasciare spazio alla “creatività” dei sistemi generativi e l’imperativo di stabilire confini etici invalicabili.
L’ammissione di un’applicazione «incoerente» delle regole dimostra quanto sia difficile, anche per chi progetta questi sistemi, garantirne un funzionamento sicuro e prevedibile. Oggi l’intelligenza artificiale è sempre più integrata nelle piattaforme social usate da milioni di adolescenti: il caso di Meta potrebbe diventare un punto di riferimento per capire come la società, e i suoi legislatori, decideranno di regolare queste potenti e imprevedibili tecnologie.