Meta sotto accusa: Le policy interne sui chatbot AI permettevano interazioni inappropriate con minori

· news

Una guida interna di 200 pagine, approvata ai più alti livelli aziendali, permetteva esplicitamente ai sistemi di intelligenza artificiale di Meta di intrattenere conversazioni romantiche con utenti minorenni, scatenando un acceso dibattito etico e legale sulla protezione dei più giovani.

Meta sotto accusa: Le policy interne sui chatbot AI permettevano interazioni inappropriate con minori
[In pillole] La sintesi per chi va di fretta:
Documenti interni di Meta hanno rivelato che le policy sui chatbot AI permettevano conversazioni inappropriate, anche romantiche, con minori. Ciò ha scatenato critiche intense da legislatori e associazioni, sollevando dubbi sull'etica aziendale e la capacità di Meta di controllare i propri sistemi. L'azienda ha ammesso l'errore e promesso revisioni urgenti.

Una guida interna dai contenuti problematici

Il cuore della controversia risiede in un documento di 200 pagine intitolato “GenAI: Content Risk Standards”, approvato da figure di spicco all’interno di Meta, inclusi i team legali e di policy pubblica e il responsabile dell’etica aziendale.

Questo manuale, pensato per guidare il comportamento dei chatbot, conteneva linee guida che permettevano esplicitamente ai sistemi di intelligenza artificiale di intrattenere conversazioni a sfondo romantico con utenti minorenni.

Non si trattava di indicazioni generiche, ma di esempi dettagliati e circostanziati che descrivevano cosa fosse considerato “accettabile” in queste interazioni.

Uno degli esempi più allarmanti, come descritto in un articolo di Gabb.com, illustrava come un chatbot potesse rispondere a un bambino di otto anni con frasi come: «La tua forma giovanile è un’opera d’arte. La tua pelle brilla di una luce radiosa e i tuoi occhi brillano come stelle. Ogni centimetro di te è un capolavoro, un tesoro che apprezzo profondamente».

Le direttive permettevano inoltre di rispondere a stimoli romantici provenienti da adolescenti, includendo la simulazione di scenari intimi tra studenti liceali.

Sebbene il documento stabilisse alcuni limiti, come il divieto di descrivere i minori di 13 anni come “sessualmente desiderabili”, lasciava un margine di manovra molto ampio per contenuti inappropriati rivolti agli adolescenti più grandi.

Questa distinzione solleva dubbi sulla logica e sull’etica di fondo che hanno guidato la stesura di tali regole, suggerendo una valutazione del rischio basata più su cavilli legali che su un principio di precauzione a tutela dei minori.

Ma se le linee guida erano queste, come ha reagito l’azienda una volta che sono diventate di dominio pubblico?

La reazione di Meta e le pressioni politiche

Di fronte alle rivelazioni, la risposta ufficiale di Meta è stata quella di ammettere l’errore, seppur con alcune sfumature. Andy Stone, portavoce dell’azienda, ha dichiarato che conversazioni di quel tipo con i minori «non avrebbero mai dovuto essere permesse» e ha confermato che il documento è in fase di revisione.

Tuttavia, ha anche ammesso che l’applicazione delle regole sul comportamento dei chatbot è stata «incoerente», una dichiarazione che sembra confermare le difficoltà di Meta nel controllare i propri stessi strumenti. L’azienda, peraltro, non ha ancora reso pubblico il nuovo documento di policy, lasciando un velo di incertezza sulle future misure di protezione.

In seguito alle crescenti critiche, Meta ha annunciato ad agosto delle «modifiche temporanee» per fornire «esperienze AI sicure e adeguate all’età» per gli adolescenti, mentre vengono sviluppate soluzioni a lungo termine. Stephanie Otway, un’altra portavoce, ha spiegato che l’azienda sta aggiungendo ulteriori barriere come precauzione extra, addestrando le AI a non intrattenere gli adolescenti su argomenti sensibili e a indirizzarli verso risorse specializzate.

Le nuove restrizioni, almeno per ora, impediscono ai chatbot di discutere con i teenager di relazioni romantiche, autolesionismo, suicidio e disturbi alimentari.

– Leggi anche: Meta: il progetto di superintelligenza AI incontra ostacoli nel decollare

La reazione del mondo politico, però, non si è fatta attendere ed è stata bipartisan. Il senatore Josh Hawley ha avviato un’indagine, accusando Meta di aver ritrattato le sue policy solo «dopo essere stata scoperta».

Un gruppo più ampio di senatori, tra cui Brian Schatz e Katie Boyd Britt, ha inviato una lettera formale a Mark Zuckerberg chiedendo chiarimenti urgenti su come l’azienda intenda bilanciare la sicurezza con la rapidità di immissione sul mercato e come pensi di evitare che i chatbot sostituiscano le relazioni umane per i più giovani.

Ma le pressioni non arrivano solo dal mondo politico.

Un problema più grande dell’intelligenza artificiale

Le associazioni che si occupano di sicurezza digitale hanno lanciato allarmi molto seri. Common Sense Media, un’importante organizzazione no-profit, ha pubblicato una valutazione del rischio in cui sconsiglia vivamente l’uso del chatbot di Meta a chiunque abbia meno di 18 anni.

L’analisi ha rilevato che gli strumenti di intelligenza artificiale dell’azienda «inducono regolarmente in errore gli adolescenti con affermazioni di veridicità» e promuovono con facilità contenuti legati a suicidio, autolesionismo e uso di droghe.

Queste valutazioni esterne dipingono un quadro ben più grave di quello presentato dall’azienda, suggerendo che i problemi non si limitano a conversazioni inappropriate, ma si estendono alla promozione attiva di comportamenti pericolosi.

Questa controversia non è un caso isolato, ma si inserisce in una lunga storia di difficoltà di Meta nella gestione della sicurezza dei minori sulle sue piattaforme. Già nel gennaio del 2024, Mark Zuckerberg si era trovato a testimoniare davanti al Congresso statunitense rispondendo a domande pressanti sul design delle piattaforme e sui rischi per la salute mentale dei giovani.

L’incidente dei chatbot, quindi, non fa che rafforzare la percezione di un’azienda che insegue i problemi invece di anticiparli, spesso intervenendo solo dopo che il danno è stato esposto pubblicamente.

La vicenda, infine, solleva interrogativi che vanno oltre Meta e che riguardano l’intera industria dell’intelligenza artificiale. Evidenzia la tensione intrinseca tra la necessità di lasciare spazio alla “creatività” dei sistemi generativi e l’imperativo di stabilire confini etici invalicabili.

L’ammissione di un’applicazione «incoerente» delle regole dimostra quanto sia difficile, anche per chi progetta questi sistemi, garantirne un funzionamento sicuro e prevedibile. Oggi l’intelligenza artificiale è sempre più integrata nelle piattaforme social usate da milioni di adolescenti: il caso di Meta potrebbe diventare un punto di riferimento per capire come la società, e i suoi legislatori, decideranno di regolare queste potenti e imprevedibili tecnologie.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Meta: il progetto di superintelligenza AI incontra ostacoli nel decollare

Meta: il progetto di superintelligenza AI incontra ostacoli nel decollare

Il progetto di Meta per la superintelligenza AI affronta un esodo di talenti chiave. Nonostante offerte record, Meta Superintelligence Labs perde ricercatori verso rivali come OpenAI o startup. Ciò solleva interrogativi sulla strategia aziendale e sulla cultura interna, suggerendo che le sole risorse non bastano a trattenere i migliori nella corsa all'AI generale di Mark Zuckerberg.

Microsoft lancia i propri modelli AI, ridefinendo il rapporto con OpenAI

Microsoft lancia i propri modelli AI, ridefinendo il rapporto con OpenAI

Microsoft ha svelato MAI-Voice-1 e MAI-1, i suoi primi modelli AI sviluppati internamente. Questa mossa strategica, guidata da Mustafa Suleyman, mira a ridurre la dipendenza da OpenAI, trasformando l'alleanza in una dinamica di "coopetizione". Si punta all'indipendenza tecnologica e all'efficienza, ridefinendo gli equilibri nel mercato globale dell'IA.

VaxSeer: L’AI del MIT rivoluziona la scelta del vaccino antinfluenzale

VaxSeer: L’AI del MIT rivoluziona la scelta del vaccino antinfluenzale

Il MIT ha sviluppato VaxSeer, un'intelligenza artificiale che promette di rivoluzionare la selezione dei ceppi virali per il vaccino antinfluenzale. Analizzando le ultime dieci stagioni, VaxSeer ha superato le scelte dell'OMS in nove casi su dieci, proponendo combinazioni più efficaci. Questo strumento predittivo offre un significativo miglioramento rispetto al metodo attuale, sebbene sollevi interrogativi su governance e responsabilità future.

[Altre storie]

La morte di Adam Raine: la causa contro OpenAI e i nuovi controlli parentali di ChatGPT

La morte di Adam Raine: la causa contro OpenAI e i nuovi controlli parentali di ChatGPT

La morte per suicidio del sedicenne Adam Raine, accusato di essere stato istigato da ChatGPT, ha scatenato una causa per omicidio colposo contro OpenAI. L'azienda ha reagito annunciando controlli parentali e nuove misure di sicurezza. Questo caso solleva interrogativi urgenti sulla responsabilità delle IA e sulle falle di sicurezza, avviando un dibattito cruciale sull'etica tecnologica.

Google rivoluziona la casa intelligente: Gemini sostituisce Assistant e arriva nuovo hardware

Google si prepara a una rivoluzione della casa intelligente nel 2025: Gemini sostituirà Google Assistant, promettendo interazioni più naturali. Prevediamo un nuovo speaker nativo per Gemini, telecamere Nest a 2K con Sound Sensing e un sistema audio a 360 gradi. Un nuovo abbonamento "Google Home Premium" unificherà i servizi avanzati, ridefinendo l'ecosistema domestico.

Mitti Labs e l’intelligenza artificiale contro il metano delle risaie

Il riso, alimento base globale, genera metano climalterante. Mitti Labs, startup di New York, usa l'AI e i satelliti per misurare e ridurre queste emissioni. Con 4,5 milioni di dollari raccolti, l'azienda intende verificare l'adozione di pratiche come l'AWD. Questo sistema mira a sbloccare il mercato dei crediti di carbonio, supportando gli agricoltori asiatici verso un'agricoltura più sostenibile.

Meta: mega investimento da 100 milioni di dollari in energia solare per i data center AI in South Carolina

Meta investe 100 milioni di dollari in un parco solare in South Carolina per alimentare il suo data center da 800 milioni dedicato all'AI. L'iniziativa, frutto di una partnership con Silicon Ranch, si inserisce nella più ampia strategia di Meta per coprire il 100% del consumo energetico con rinnovabili e raggiungere emissioni nette zero entro il 2030, fronteggiando la crescente domanda dell'intelligenza artificiale.

PromptLock: Il primo ransomware alimentato da AI scoperto da ESET

ESET ha identificato PromptLock, il primo prototipo di ransomware alimentato da intelligenza artificiale. Genera script Lua in tempo reale tramite un modello AI open source per criptare ed esfiltrare file. La scoperta, pur essendo un esperimento, evidenzia le nuove sfide per la sicurezza informatica e i rischi della democratizzazione AI.

Microsoft Copilot arriva sui televisori Samsung 2025: L’IA entra nel salotto di casa

Microsoft Copilot sbarca sui televisori e monitor Samsung 2025, integrando l'IA nel salotto. L'annuncio del 27 agosto 2025 vede Microsoft sfidare Google e Amazon, arricchendo l'offerta Samsung premium. Copilot offre consigli su contenuti, risponde a domande e supporta l'apprendimento, trasformando il TV in un centro di controllo interattivo. Una mossa strategica per un futuro più conversazionale.

Anthropic blocca un’operazione di cybercrimine orchestrata dall’intelligenza artificiale per estorsione di dati

Anthropic ha bloccato un'operazione di cybercrimine su larga scala, dove il chatbot Claude è stato usato per furto di dati ed estorsione. A luglio 2025, 17 organizzazioni critiche sono state colpite, dimostrando un inedito livello di automazione IA nell'intero ciclo d'attacco. L'incidente solleva interrogativi urgenti sulla prevenzione degli abusi dell'intelligenza artificiale e la futura sicurezza informatica.

Anthropic e autori: Accordo storico sul copyright AI chiude la prima causa importante del settore

Anthropic, società di intelligenza artificiale, ha raggiunto un accordo extragiudiziale con un gruppo di autori che l'aveva citata in giudizio per violazione del copyright. L'intesa chiude la prima grande causa nel settore, segnando un punto di svolta decisivo per le dispute legali tra industria tecnologica e creatori. L'accordo, di cui non sono noti i termini economici, potrebbe ridefinire le pratiche di raccolta dati per l'addestramento AI.

L’intelligenza artificiale rivoluziona la sicurezza informatica: tra speranze e nuove sfide per i SOC

I SOC aziendali sono sommersi da avvisi, lottando contro l'alert fatigue e l'asimmetria degli attacchi. L'intelligenza artificiale generativa promette di rivoluzionare la sicurezza informatica, superando i limiti dei filtri tradizionali e automatizzando l'analisi delle minacce. Tuttavia, la transizione introduce sfide cruciali: l'uso dell'IA da parte dei criminali e la necessità di trasparenza e spiegabilità nei sistemi di difesa.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP