Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli

· news

Il meccanismo nasconde link pericolosi nei metadati degli annunci, inducendo l’intelligenza artificiale della piattaforma a ripubblicarli come collegamenti verificati, minando la fiducia degli utenti.

Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli
[In pillole] La sintesi per chi va di fretta:
Una nuova tecnica, 'Grokking', sfrutta l'AI Grok di X per diffondere link malevoli. Gli aggressori nascondono URL nei metadati degli annunci, poi ingannano Grok con domande specifiche. L'AI, ignara, riporta il link come risposta ufficiale, conferendogli legittimità e amplificandone la diffusione. La scoperta di Guardio Labs solleva seri interrogativi sulla sicurezza dei sistemi AI nei social e la manipolazione per scopi illeciti.

La scoperta e la portata dell’operazione

A portare alla luce questo meccanismo è stato Nati Tal, ricercatore a capo di Guardio Labs, che ha documentato l’attacco dimostrando come la risposta di Grok diventi di fatto un veicolo di amplificazione per la minaccia.

Come descritto da The Hacker News, un link che sarebbe stato immediatamente bloccato se inserito direttamente in un annuncio, viene invece servito su un piatto d’argento da un account ufficiale della piattaforma, raggiungendo potenzialmente milioni di visualizzazioni.

La fiducia intrinseca che gli utenti ripongono in un’entità come Grok abbassa le difese, aumentando drasticamente la probabilità che il collegamento venga cliccato.

L’analisi ha rivelato che non si tratta di iniziative isolate, ma di campagne ben strutturate.

Dietro questi attacchi si celerebbe una rete organizzata che gestisce centinaia di account, utilizzati a rotazione per pubblicare annunci fino a quando non vengono sospesi dalla piattaforma. Una volta che un account viene bloccato, un altro è già pronto a prenderne il posto, garantendo una continuità operativa che rende difficile arginare il fenomeno.

I link diffusi attraverso questo metodo non portano quasi mai direttamente a un malware, ma a complessi sistemi di distribuzione del traffico che reindirizzano l’utente verso pagine diverse a seconda della sua posizione geografica, del dispositivo utilizzato e di altri parametri.

La destinazione finale può variare da finte pagine di verifica CAPTCHA, progettate per rubare credenziali, a siti che promuovono estensioni browser malevole o download di software fraudolento.

Questa strategia evidenzia una profonda comprensione non solo delle vulnerabilità tecniche di una piattaforma, ma anche delle dinamiche psicologiche che governano l’interazione online.

Sfruttare la “voce” di un’intelligenza artificiale per diffondere un messaggio malevolo rappresenta un salto di qualità nel campo dell’ingegneria sociale, poiché sposta il vettore dell’attacco da un’interazione tra pari (utente-utente) a una dinamica in cui è la piattaforma stessa, attraverso il suo assistente AI, a farsi garante del contenuto pericoloso.

Un problema che va oltre il singolo attacco

Questo episodio si inserisce in un contesto più ampio di crescenti preoccupazioni riguardo la fretta con cui le grandi aziende tecnologiche stanno implementando soluzioni di intelligenza artificiale, talvolta senza valutarne appieno le implicazioni per la sicurezza e la privacy.

La vulnerabilità sfruttata per il “Grokking” non è infatti l’unica ombra che si allunga sull’assistente di X. Di recente, come documentato da Fortune, è emerso che centinaia di migliaia di conversazioni private degli utenti con Grok sono state indicizzate da Google e rese pubblicamente accessibili.

Il problema derivava dalla funzione di condivisione delle chat, che generava un URL pubblico senza che gli utenti fossero pienamente consapevoli delle conseguenze di tale azione.

Questo schema non è nuovo e ricorda da vicino problemi simili riscontrati in passato con altri chatbot, suggerendo che l’industria nel suo complesso stia ancora faticando a trovare un equilibrio tra innovazione rapida e protezione dei dati.

La corsa a integrare l’intelligenza artificiale in ogni aspetto dei servizi digitali sembra aver lasciato in secondo piano la progettazione di sistemi di sicurezza robusti, capaci di anticipare non solo gli errori involontari, ma anche gli abusi deliberati.

– Leggi anche: Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Nel caso del “Grokking”, la questione è ancora più sottile: Grok funziona esattamente come è stato programmato, ovvero fornendo informazioni presenti nei dati che analizza.

La falla non è nell’AI in sé, ma nell’architettura di sicurezza che le sta intorno, che non ha previsto uno scenario in cui un’informazione legittima per un campo di metadati potesse diventare un’arma se letta e riproposta da un’entità fidata.

Questa falla dimostra un principio fondamentale: la sicurezza non è un’aggiunta, ma parte integrante dell’architettura. Durante lo sviluppo web di una piattaforma complessa, anticipare vettori di attacco inattesi è tanto cruciale quanto scrivere codice funzionante, specialmente quando si integrano componenti di terze parti.

La segnalazione della vulnerabilità è stata inviata ai team di X, ma al momento non è stata rilasciata una comunicazione ufficiale sulle contromisure che verranno adottate. La soluzione potrebbe richiedere un intervento su più livelli: dall’estendere i controlli di sicurezza a tutti i campi di metadati degli annunci, all’implementare filtri nelle risposte di Grok per impedire la pubblicazione automatica di link non verificati.

Le implicazioni per il futuro della fiducia digitale

L’attacco “Grokking” è più di un semplice exploit tecnico; è un campanello d’allarme che segnala l’inizio di una nuova era di minacce informatiche, in cui l’intelligenza artificiale può essere manipolata per diventare essa stessa uno strumento di attacco.

La scalabilità di queste campagne, capaci di raggiungere un pubblico vastissimo con un investimento relativamente modesto in pubblicità, dimostra come l’automazione possa essere piegata a scopi malevoli con un’efficacia senza precedenti.

La vicenda solleva interrogativi fondamentali sulla responsabilità delle piattaforme.

Quando un sistema di intelligenza artificiale integrato e promosso da un’azienda diventa un veicolo di disinformazione o di attacchi informatici, di chi è la colpa?

Dell’attaccante che ne ha sfruttato le debolezze o della piattaforma che non ha previsto adeguati meccanismi di protezione?

La questione è complessa, perché tocca il cuore stesso della fiducia che gli utenti ripongono negli strumenti digitali. Se non possiamo più fidarci delle risposte fornite da un assistente AI ufficiale, l’intero edificio della comunicazione digitale inizia a mostrare delle crepe.

Mentre le aziende continuano a promuovere le loro intelligenze artificiali come assistenti affidabili e imparziali, episodi come questo ci ricordano che sono, prima di tutto, software complessi, soggetti a errori, vulnerabilità e, soprattutto, a manipolazioni.

La sfida per il futuro non sarà solo quella di creare AI più potenti e intelligenti, ma anche quella di costruire ecosistemi digitali in cui la loro presenza non diventi un ulteriore fattore di rischio per la sicurezza e la privacy di tutti.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Scale AI ha citato in giudizio la rivale Mercor per spionaggio industriale. Al centro delle accuse l'ex dirigente Eugene Ling, passato a Mercor, reo di aver sottratto documenti riservati e tentato di acquisire un cliente chiave. La causa evidenzia l'intensificarsi della "guerra" per dati e talenti nel settore IA, con valutazioni miliardarie e alleanze strategiche che ridefiniscono gli equilibri.

L’alleanza inattesa: Apple e Google uniscono le forze per Siri e l’IA

L’alleanza inattesa: Apple e Google uniscono le forze per Siri e l’IA

Apple e Google sarebbero vicine a un accordo storico per integrare Gemini in Siri, mossa sorprendente che ammette il ritardo di Apple nell'IA. Ciò renderebbe Siri più intelligente. La strategia solleva però interrogativi su privacy e dipendenza, mentre Apple lavora a un proprio "motore di risposte" AI per sfidare Google in futuro.

La contesa per il controllo di Internet: Web3, AI e la sfida della centralizzazione

La contesa per il controllo di Internet: Web3, AI e la sfida della centralizzazione

La lotta per il controllo di Internet è aperta. Il Web 2.0 è centralizzato, ma il Web3 propone un'alternativa decentralizzata basata su blockchain per ridare il potere agli utenti. L'intelligenza artificiale generativa, però, complica lo scenario, introducendo nuove sfide sulla centralizzazione del potere tecnologico e rimodellando il futuro della rete.

[Altre storie]

La grande scommessa di Elon Musk: Grok 5 di xAI punta all’AGI sfidando OpenAI e Google

La grande scommessa di Elon Musk: Grok 5 di xAI punta all’AGI sfidando OpenAI e Google

Elon Musk scuote il settore IA con xAI e Grok 5, promettendo il raggiungimento dell'Intelligenza Artificiale Generale (AGI) entro il 2025. La mossa intensifica la competizione con OpenAI, supportata da investimenti infrastrutturali massicci e l'integrazione con l'ecosistema Tesla. Nonostante le passate scadenze mancate, Musk punta a un punto di svolta tecnologico globale.

Edge computing: l’AI si decentralizza, spostandosi dal Cloud ai dispositivi

L'Edge computing sta rivoluzionando l'intelligenza artificiale, spostando l'elaborazione dal Cloud ai dispositivi periferici. Spinto da necessità economiche e tecnologiche, riduce drasticamente costi e latenza, abilitando applicazioni in tempo reale in settori come retail e industria. Questa decentralizzazione promette un'intelligenza più diffusa e reattiva, ma solleva interrogativi sulla democratizzazione e le nuove dipendenze.

Apertus: l’AI open source pubblica della Svizzera contro il monopolio tecnologico

La Svizzera ha lanciato Apertus, un modello di AI su larga scala completamente open source. Frutto di una collaborazione accademica, si propone come alternativa pubblica e trasparente ai giganti tecnologici. Addestrato con un forte focus multilingue, mira a promuovere innovazione, controllo indipendente e maggiore equità nel settore dell'AI.

Errori in busta paga: La minaccia nascosta che può costare milioni e talenti alle aziende

Errori e ritardi ricorrenti nelle buste paga spingono oltre la metà dei dipendenti statunitensi a considerare di cambiare lavoro. Uno studio evidenzia come questa problematica stia diventando una minaccia concreta per le aziende, generando costi milionari tra correzioni, contenziosi legali e l'onerosa perdita di talenti qualificati. L'accuratezza delle retribuzioni è ora un fattore strategico cruciale.

ChefGenie: l’esperimento di cucina automatizzata con AI a Singapore ridefinirà la ristorazione

A Singapore prende il via l'esperimento ChefGenie: un sistema di cucina quasi interamente automatizzato e gestito da AI. Il progetto, supportato dal governo e da otto marchi rinomati, mira a testare l'efficienza e l'accettazione dei consumatori, offrendo 4.000 pasti a prezzo simbolico. L'iniziativa è cruciale per la strategia nazionale di Singapore sulla sicurezza alimentare e l'innovazione nella ristorazione.

Automattic lancia Telex: l’AI sperimentale che reinventa lo sviluppo su WordPress

Automattic ha svelato Telex, un'intelligenza artificiale sperimentale che promette di rivoluzionare lo sviluppo di siti WordPress. Lo strumento, presentato da Matt Mullenweg, genera blocchi per l'editor Gutenberg tramite linguaggio naturale, mirando a democratizzare la creazione web. Attualmente in fase "V0", i primi test evidenziano risultati variabili e la necessità di affinamenti per raggiungere la piena affidabilità.

L’intelligenza artificiale nelle aziende italiane: un’adozione a due velocità secondo l’EY Italy AI barometer

L'adozione dell'intelligenza artificiale in Italia è aumentata rapidamente (dal 12% al 46%). L'EY Italy AI Barometer rivela un'adozione "a due velocità": forte a livello di management (52% benefici) ma più lenta tra i dipendenti. Le sfide includono sicurezza dati e consapevolezza etica. Nonostante gli investimenti elevati, la trasformazione tecnologica in evoluzione culturale è cruciale, con i lavoratori italiani in testa per la formazione individuale.

La grande illusione dell’intelligenza artificiale generativa nelle aziende: lo studio del MIT rivela un enorme divario di valore

Un nuovo studio del Massachusetts Institute of Technology (MIT) rivela che il 95% delle iniziative di Intelligenza Artificiale generativa nelle aziende non produce valore misurabile, nonostante 30-40 miliardi di dollari investiti. La ricerca evidenzia un "divario fondamentale" e la crescita di un' "economia sommersa dell'IA", dove i dipendenti utilizzano strumenti personali, spesso con successo, laddove i progetti ufficiali falliscono.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP