L’intelligenza artificiale è l’arma preferita degli hacker e le aziende non sono pronte

· news

La maggior parte delle organizzazioni si ritrova pericolosamente impreparata a difendersi da queste minacce, con l’87% delle aziende già colpite e un’escalation di attacchi multicanale, dal phishing con IA ai deepfake capaci di estorcere milioni

L’intelligenza artificiale è l’arma preferita degli hacker e le aziende non sono pronte
[In pillole] La sintesi per chi va di fretta:

L'intelligenza artificiale è diventata la principale arma degli hacker, con l'ottantasette percento delle aziende colpite da attacchi IA nell ultimo anno secondo SoSafe. Phishing, deepfake e attacchi multicanale sono in crescita esponenziale. Le organizzazioni si trovano impreparate, con budget e competenze inadeguati ad affrontare una minaccia che evolve più velocemente delle loro difese, rendendo l'elemento umano più vulnerabile.

La rapidità con cui l’intelligenza artificiale è diventata un problema

La caratteristica che distingue gli attacchi basati su intelligenza artificiale è la loro capacità di operare su larga scala mantenendo un alto grado di personalizzazione. In passato, un attacco su vasta scala era quasi sempre generico e facilmente riconoscibile, mentre un attacco personalizzato richiedeva tempo e risorse significative, limitandone la portata.

Oggi, l’IA ha eliminato questo compromesso.

Andrew Rose, Chief Security Officer di SoSafe, ha spiegato che “l’IA sta drasticamente aumentando la sofisticazione e la personalizzazione degli attacchi informatici. Sebbene le organizzazioni sembrino consapevoli della minaccia, i nostri dati mostrano che non hanno fiducia nella loro capacità di rilevarli e di reagire”.

Gli strumenti di IA generativa sono stati trasformati in vere e proprie armi. Sono in grado di produrre fino a 30 modelli di email di phishing ogni ora e di comporre questi messaggi il 40% più velocemente rispetto a un essere umano.

Le password, un tempo considerate una prima linea di difesa, sono diventate estremamente vulnerabili: strumenti di hacking basati su IA sono riusciti a decifrare il 51% di oltre 15 milioni di password comuni in meno di un minuto.

La tattica stessa è diventata più complessa. Il 95% dei professionisti della sicurezza ha notato un aumento degli “attacchi multicanale“, campagne coordinate che combinano email, SMS, social media e piattaforme di collaborazione come Teams o Slack per creare un’illusione di legittimità molto più convincente.

Un caso emblematico ha visto degli aggressori prendere di mira l’amministratore delegato di un’azienda usando WhatsApp per creare un rapporto di fiducia, per poi spostare la conversazione su Microsoft Teams e infine utilizzare una chiamata con una voce clonata tramite IA per estorcere informazioni sensibili e denaro.

Ma la vera novità non è solo nel volume, quanto nella qualità e nella crescente difficoltà nel distinguere una comunicazione legittima da una fraudolenta, soprattutto quando entrano in gioco tecniche ancora più avanzate.

IA

I deepfake e la nuova frontiera delle truffe finanziarie

Una delle evoluzioni più allarmanti è l’uso della tecnologia deepfake per scopi criminali. I deepfake, ovvero contenuti audio o video manipolati dall’IA per sembrare autentici, sono oggi responsabili del 6,5% di tutti gli attacchi fraudolenti, con un aumento del 2.137% rispetto al 2022.

Questa crescita esplosiva ha colto di sorpresa la maggior parte delle aziende.

La percentuale di professionisti della sicurezza che si sentono meno preparati ad affrontare attacchi deepfake è passata dal 3% nel 2024 al 21% tra i manager nel 2025.

I casi reali dimostrano l’impatto devastante di questa tecnologia. Una società finanziaria di Hong Kong ha perso 25 milioni di dollari a causa di una truffa in cui i criminali hanno utilizzato un deepfake per impersonare il direttore finanziario dell’azienda durante una videoconferenza.

In modo simile, la società di ingegneria britannica Arup è stata vittima di un attacco in cui cloni generati dall’IA di alcuni dirigenti hanno convinto un dipendente del reparto finanziario a trasferire una somma analoga.

Nonostante la consapevolezza di queste minacce, la fiducia nelle proprie capacità di difesa rimane molto bassa. Solo il 26% dei professionisti della sicurezza si dichiara molto fiducioso nella propria capacità di rilevare un attacco basato su IA, come emerge da uno studio di VikingCloud sulla sicurezza informatica.

– Leggi anche: Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

Il paradosso è evidente: il 91% degli esperti prevede un aumento significativo delle minacce guidate dall’IA nei prossimi tre anni, ma le contromisure rimangono inadeguate.

Questo senso di impotenza è particolarmente sentito ai vertici aziendali. Quasi due terzi dei manager e oltre la metà dei leader della sicurezza a livello dirigenziale identificano gli attacchi basati su IA come la loro sfida più grande.

Le principali preoccupazioni riguardano il phishing generato dall’IA, l’hacking dei modelli di intelligenza artificiale e il “vishing”, ovvero le truffe basate su deepfake vocali.

L’ammissione più preoccupante, però, è che oltre un terzo di questi dirigenti riconosce che la tecnologia dietro gli attacchi informatici è più sofisticata di quella che hanno a disposizione per difendersi.

Eppure, il problema potrebbe essere ancora più profondo, perché la minaccia non proviene più soltanto dall’esterno.

Quando il nemico è anche dentro l’azienda

Un paradosso critico sta emergendo: gli stessi sistemi di intelligenza artificiale che le aziende implementano per migliorare l’efficienza e l’innovazione stanno diventando nuovi vettori di attacco.

L’adozione interna dell’IA sta involontariamente espandendo la superficie di attacco delle organizzazioni, esponendole a rischi inediti come il “data poisoning” (l’avvelenamento dei dati con cui l’IA viene addestrata) o le allucinazioni dei modelli linguistici, che possono essere sfruttate per estrarre informazioni.

Molte aziende, per esempio, creano chatbot basati su IA per assistere il personale, ma poche hanno considerato che questi stessi chatbot possano diventare complici involontari in un attacco, aiutando un aggressore a raccogliere dati sensibili o a identificare le persone chiave da colpire.

Il 55% delle aziende non ha ancora implementato controlli completi per gestire i rischi associati alle proprie soluzioni di IA interne. Una ricerca condotta da IBM e Ponemon Institute ha rivelato che i sistemi di intelligenza artificiale non governati in modo adeguato hanno maggiori probabilità di essere violati e che i costi associati a tali violazioni sono molto più alti.

Questo solleva un dubbio sulla spinta quasi incondizionata verso l’adozione dell’IA promossa dalle grandi multinazionali tecnologiche. Mentre queste aziende presentano l’IA come la soluzione a ogni problema, la sua implementazione affrettata e senza un’adeguata governance sta forse creando più problemi di quanti ne risolva, trasformando le infrastrutture aziendali in un campo minato.

A complicare ulteriormente la situazione contribuiscono le limitazioni di budget e la carenza di personale qualificato. La crescita dei budget per la sicurezza informatica è rallentata drasticamente, passando dal 17% nel 2022 a un modesto 4% nel 2025, come descritto in un’analisi del World Economic Forum, un dato in netto contrasto con la velocità con cui le minacce evolvono.

La comunità della sicurezza informatica si trova oggi a un punto di svolta. Il 78% dei responsabili della sicurezza informatica ammette che le minacce basate sull’IA stanno avendo un impatto significativo sulle loro organizzazioni, secondo l’ultimo rapporto di Darktrace.

La domanda non è più se l’intelligenza artificiale trasformerà la guerra cibernetica, perché lo ha già fatto.

La vera domanda è se le aziende riusciranno a sviluppare la governance, i budget e le competenze necessarie per difendersi da un avversario che opera alla velocità e sulla scala di una macchina.

In fondo, nonostante la tecnologia sempre più sofisticata, l’anello debole rimane lo stesso: l’essere umano.

Le credenziali rubate continuano a essere uno dei metodi più utilizzati dai criminali per ottenere un primo accesso ai sistemi. Ora, però, l’intelligenza artificiale permette di sfruttare la psicologia umana con campagne di ingegneria sociale così convincenti e personalizzate da rendere la distinzione tra fiducia e ingenuità quasi impossibile.

Poiché l’errore umano rimane il vettore principale d’attacco, la strategia di difesa più efficace passerebbe verosimilmente per l’adozione di piattaforme HR evolute, capaci di mappare le lacune di competenza digitale dello staff e imporre percorsi di formazione sulla sicurezza obbligatori e tracciati.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

La nuova integrazione di Apple Music in ChatGPT consente agli abbonati di creare playlist personalizzate e ricevere suggerimenti musicali tramite conversazione. L'applicazione, seguendo l'esempio di Spotify, genera e salva direttamente le playlist nell'account dell'utente, distinguendosi per l'inclusione di brevi anteprime audio dei brani, una funzione pensata per mantenere l'ascolto principale all'interno dell'ecosistema Apple.

La svolta AI di Microsoft verso il 2026 tra agenti autonomi e aumenti di prezzo

La svolta AI di Microsoft verso il 2026 tra agenti autonomi e aumenti di prezzo

Microsoft punta al 2026 per una rivoluzione dell'intelligenza artificiale, trasformando Copilot in un agente autonomo integrato nel lavoro quotidiano. Questa transizione strategica, che promette più efficienza, si basa su ingenti investimenti e comporterà un inevitabile aumento dei prezzi per le suite Microsoft 365, ponendo nuove sfide di sicurezza e controllo per le aziende.

Trump ribalta le politiche di Biden, via libera ai chip AI di Nvidia per la Cina

Trump ribalta le politiche di Biden, via libera ai chip AI di Nvidia per la Cina

L'amministrazione di Donald Trump ha siglato un accordo con la Cina che consente a Nvidia di vendere alcuni chip per l'IA. La mossa inverte le rigide politiche di Joe Biden, permettendo l'export del chip H200 a clienti approvati ma escludendo le tecnologie più avanzate. La decisione, pur sostenendo l'industria USA, è criticata come un rischio per la sicurezza nazionale.

[Altre storie]

Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi

Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi

La Commissione Europea ha deciso di posticipare al dicembre 2027 l'entrata in vigore delle regole per i sistemi di intelligenza artificiale ad alto rischio. La mossa giustificata dalla mancanza di standard tecnici lascia l'Italia in una posizione scomoda avendo già introdotto una legge nazionale anticipatoria che rischia ora di penalizzare le imprese locali rispetto ai competitor europei.

Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Meta ha svelato V-JEPA una nuova architettura AI ideata da Yann LeCun che apprende le leggi della fisica osservando video invece di leggere testi. Il sistema mira a superare i limiti dei chatbot attuali sviluppando un modello del mondo simile all intuizione umana aprendo la strada a robot piu autonomi e dispositivi di realta aumentata efficienti.

Falla di sicurezza zero day in Google Chrome usata per attacchi informatici

Google ha rilasciato un aggiornamento d'emergenza per Chrome per risolvere una vulnerabilità zero-day, l'ottava del 2025. Identificata come CVE-2025-14174 e di gravità alta, la falla è già attivamente sfruttata da aggressori. Il problema, localizzato nel componente ANGLE, può permettere l'esecuzione di codice malevolo, rendendo cruciale l'aggiornamento immediato del browser per tutti gli utenti.

OpenAI dichiara Codice Rosso e cambia i piani per sfidare Google

Sam Altman ha dichiarato un code red in OpenAI per rispondere alla rapida ascesa di Google Gemini. L azienda ha congelato progetti secondari e pubblicità per concentrarsi sul rendere ChatGPT un assistente personale indispensabile. L obiettivo strategico è creare un abitudine di utilizzo quotidiana negli utenti e difendere la propria posizione di mercato minacciata dal rivale di Mountain View.

DeepSeek rovescia il duopolio dell’IA: efficienza batte potenza bruta

DeepSeek ha sconvolto il duopolio dell'IA con i suoi modelli V3.2 e Speciale, che eguagliano o superano GPT-5 e Gemini 3.0 Pro. L'azienda cinese dimostra che l'efficienza algoritmica, non solo la potenza bruta, è la chiave. Questo ha generato incertezza a Wall Street, mettendo in discussione i massicci investimenti infrastrutturali e aprendo nuove prospettive per l'accesso globale all'IA avanzata.

NANOREMOTE il malware che si nasconde dentro Google Drive

Un nuovo e sofisticato malware per Windows, chiamato NANOREMOTE, utilizza Google Drive per comunicare con i suoi controllori e rubare dati, mascherando il suo traffico da attività legittima. Questa backdoor, quasi invisibile ai sistemi di sicurezza, è collegata al gruppo di hacker cinesi REF7707 e viene usata in operazioni di spionaggio contro organizzazioni strategiche a livello globale.

Flexiv lancia FMR 300 la base mobile che libera i robot dai bulloni

Flexiv ha presentato l'FMR 300, una base mobile autonoma capace di trasportare bracci robotici e carichi fino a 270 kg. La tecnologia utilizza sensori di forza invece della visione artificiale per compensare gli errori di posizionamento, permettendo lavorazioni precise in stazioni multiple. Questa soluzione mira a ottimizzare i flussi produttivi riducendo la dipendenza da macchinari fissi.

Albiriox: il Malware-as-a-Service che trasforma il crimine digitale in un abbonamento

Albiriox, un nuovo malware per Android, è emerso come servizio in abbonamento, trasformando il crimine informatico in un settore. Venduto a 650-720 dollari al mese, permette il controllo remoto dei dispositivi, aggirando le sicurezze bancarie tramite VNC e abusi dei servizi di accessibilità. Questo 'Malware-as-a-Service' (MaaS) punta a oltre 400 app finanziarie, democratizzando le frodi e rivelando la crescente sofisticazione del mercato nero digitale. La sua diffusione si basa sull'ingegneria sociale.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP