Agenti AI autonomi: la rivoluzione di Microsoft nella cybersecurity

· news

Questa evoluzione è motivata da un volume di minacce informatiche che supera le capacità umane di analisi, portando l’azienda a delegare la prima linea di difesa a sistemi di intelligenza artificiale autonomi.

Agenti AI autonomi: la rivoluzione di Microsoft nella cybersecurity
[In pillole] La sintesi per chi va di fretta:
Microsoft sta rivoluzionando la cybersecurity, trasformando la sua IA da assistente a un sistema di agenti autonomi. Di fronte a 84 trilioni di minacce giornaliere, questi agenti agiranno in prima persona per bloccare attacchi e isolare dispositivi. Questo cambio di paradigma mira a superare i limiti dell'analisi umana, spostando i professionisti verso un ruolo di supervisori strategici.

L’assistente che diventa autonomo

Il passaggio da un’intelligenza artificiale passiva a una attiva è il cuore della nuova strategia di Microsoft. Vasu Jakkal, Corporate Vice President della divisione sicurezza, lo ha definito “il prossimo punto di svolta” per l’IA nella cybersecurity.

In un’intervista esclusiva con Infosecurity Magazine, Jakkal ha spiegato che Security Copilot si sta trasformando da un assistente IA passivo ad assistenti IA attivi, autonomi e adattivi che possono completare compiti per tuo conto, ovviamente con la supervisione umana.

Questo significa che, invece di limitarsi a fornire analisi e suggerimenti, i nuovi agenti software potranno eseguire azioni concrete: isolare un dispositivo compromesso, bloccare un account sospetto o applicare una patch di sicurezza.

Per rendere concreta questa visione, Microsoft ha introdotto sei agenti specifici, ognuno progettato per gestire un compito particolare. Per esempio, l’agente specializzato nella gestione del phishing è stato addestrato per analizzare l’enorme flusso di email fraudolente (tra gennaio e dicembre 2024 ne sono state documentate 30 miliardi) e distinguere autonomamente i falsi allarmi dalle minacce reali, fornendo poi una spiegazione trasparente del suo processo decisionale.

Un altro agente si occupa di ottimizzare gli accessi condizionati, monitorando la rete alla ricerca di utenti o applicazioni non coperti da adeguate politiche di sicurezza e suggerendo soluzioni applicabili con un solo clic.

Il dettaglio del “singolo clic” non è banale: significa che la complessità tecnica viene assorbita dall’interfaccia. Progettare questa semplicità è il campo della progettazione di interfacce e user experience, dove l’obiettivo è rendere invisibile tutto ciò che è difficile.

Esistono poi agenti per la gestione delle vulnerabilità, per la valutazione degli allarmi legati alla perdita di dati e persino uno che prepara un bollettino personalizzato sulle minacce più pertinenti per una specifica organizzazione.

Dietro ogni agente di questo tipo c’è un lavoro di addestramento specifico sul dominio applicativo. Non a caso, chi sceglie di adottare soluzioni simili in contesti aziendali propri si affida a progetti di sviluppo di intelligenza artificiale su misura, dove il modello viene costruito attorno ai dati e ai flussi reali dell’organizzazione.

I primi dati sull’adozione di questi strumenti sembrano confermare un notevole aumento di efficienza. Una ricerca interna di Microsoft, chiamata Security Insider, ha rilevato che le organizzazioni che utilizzano questi sistemi hanno ridotto il tempo necessario per analizzare un singolo allarme di phishing da trenta minuti a soli tre.

Questo non solo libera tempo prezioso per gli analisti, permettendo loro di concentrarsi su minacce più complesse, ma affronta anche il problema del burnout, sempre più diffuso tra i professionisti del settore. Tuttavia, affidare decisioni così delicate a un algoritmo introduce un nuovo livello di complessità:

Cosa succede se un agente commette un errore?

E chi è responsabile se un’azione autonoma causa un danno involontario?

APP

Un nuovo modello di sorveglianza (anche per gli agenti stessi)

L’introduzione di agenti autonomi all’interno di un’infrastruttura aziendale crea, inevitabilmente, nuove superfici di attacco. Un agente AI, per quanto sofisticato, è pur sempre un software e come tale può essere manipolato o compromesso. Microsoft sembra essere consapevole di questo rischio, tanto da aver sviluppato parallelamente una serie di strumenti pensati proprio per monitorare e proteggere gli agenti stessi.

In pratica, ha creato dei “guardiani” per i suoi nuovi “difensori” automatizzati.

Tra queste nuove misure di sicurezza c’è Entra Agent ID, un sistema per scoprire e gestire un inventario di tutti gli agenti attivi in un’azienda, trattandoli alla stregua di utenti o applicazioni da tenere sotto controllo. A questo si aggiungono i cosiddetti “Agent Risk Signals”, meccanismi di monitoraggio che valutano il comportamento degli agenti per identificare anomalie, rischi legati all’identità o interazioni sospette con dati sensibili.

Come si legge sul blog ufficiale di Microsoft Security, l’azienda sta estendendo le sue capacità di prevenzione della perdita di dati (DLP) anche alle richieste inviate agli agenti, per impedire che informazioni sensibili come dati personali o numeri di carte di credito vengano processate in modo inappropriato.

– Leggi anche: Prompt injection e data poisoning, le nuove armi digitali che sfruttano l’Intelligenza Artificiale

Queste contromisure sono una risposta diretta alle nuove minacce identificate da organizzazioni come OWASP, che ha stilato una lista dei rischi specifici per le intelligenze artificiali generative. Tra questi figurano l’iniezione di prompt indiretti (una tecnica per ingannare l’IA e farle eseguire comandi malevoli), l’esposizione di dati sensibili e altri tipi di abusi.

La mossa di Microsoft è quindi un’ammissione implicita che l’autonomia degli agenti non è priva di pericoli e richiede un livello di sorveglianza altrettanto avanzato. Si delinea così una sorta di corsa agli armamenti interna, dove l’intelligenza artificiale viene usata non solo per difendersi dalle minacce esterne, ma anche per controllare se stessa.

Ma in questo complesso gioco di equilibri, Microsoft agisce da sola o sta cercando di costruire un fronte più ampio?

La difesa non è più un’attività solitaria

La strategia di Microsoft non si limita allo sviluppo di strumenti proprietari, ma punta a creare una piattaforma aperta a contributi esterni. L’azienda ha annunciato l’integrazione di agenti sviluppati da cinque partner, ognuno con una sua specializzazione.

OneTrust, per esempio, ha creato un agente che analizza le violazioni della privacy e genera automaticamente indicazioni per rispettare le normative vigenti. Aviatrix, invece, offre un agente per supervisionare le infrastrutture di rete ed eseguire analisi delle cause in caso di guasti.

Altri partner come BlueVoyant, Tanium e Fletch hanno sviluppato agenti per ottimizzare le operazioni dei centri di sicurezza (SOC), arricchire gli allarmi con informazioni contestuali e prevedere quali minacce richiedono un’attenzione prioritaria per ridurre il sovraccarico di lavoro degli analisti.

Questo approccio collaborativo suggerisce che la complessità della sicurezza informatica moderna è tale che nessuna singola azienda, per quanto grande, può sperare di affrontarla da sola.

Blake Brannon, Chief Product and Strategy Officer di OneTrust, ha commentato che “un approccio agentico alla privacy cambierà le regole del gioco per il settore”, sottolineando come l’IA autonoma possa aumentare l’efficacia delle operazioni di protezione dei dati.

La visione è quella di un sistema in cui diversi agenti specializzati collaborano tra loro, orchestrati dalla piattaforma centrale di Microsoft.

L’ultimo tassello di questa visione è forse il più ambizioso: la difesa predittiva.

Sfruttando la mole di dati raccolta quotidianamente, Microsoft sta sperimentando una funzionalità chiamata “predictive shielding” (schermatura predittiva). Invece di reagire a un attacco già in corso, il sistema cerca di anticipare le mosse successive di un aggressore.

Analizzando il comportamento di una minaccia, l’IA prevede quali potrebbero essere i prossimi bersagli all’interno della rete e applica in anticipo delle misure di protezione mirate per bloccare l’attacco prima ancora che venga sferrato.

Il passaggio a una difesa autonoma e predittiva segna una rottura netta con il passato.

Il ruolo del professionista della sicurezza non scompare, ma si trasforma: meno tempo dedicato a compiti ripetitivi e più a definire le strategie, supervisionare gli agenti e gestire le eccezioni che ancora richiedono intuito e giudizio umano.

Resta però da vedere come questo nuovo equilibrio tra uomo e macchina si evolverà e quali nuove, impreviste sfide porterà con sé.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Prompt injection e data poisoning, le nuove armi digitali che sfruttano l’Intelligenza Artificiale

Prompt injection e data poisoning, le nuove armi digitali che sfruttano l’Intelligenza Artificiale

L'intelligenza artificiale generativa introduce nuove vulnerabilità come il prompt injection, che manipola il linguaggio per rubare dati o eseguire comandi malevoli. Casi reali come lo spionaggio industriale in Anthropic e il ransomware PromptLock dimostrano la concretezza della minaccia, spostando il focus della sicurezza dalla rete alla conversazione e all'integrità dei dati di addestramento, minata dal data poisoning.

NVIDIA: non solo GPU. La strategia open source per dominare l’era degli agenti AI

NVIDIA: non solo GPU. La strategia open source per dominare l’era degli agenti AI

NVIDIA sta cambiando strategia, rilasciando modelli AI open source come Nemotron. L'obiettivo non è competere con OpenAI, ma spingere le aziende a comprare le sue GPU, indispensabili per usare questi modelli. Questa mossa mira a consolidare il suo dominio sull'hardware e a creare un ecosistema per la nuova generazione di agenti intelligenti, controllando l'intero stack tecnologico.

Cyber Resilience Act: la guida completa a obblighi e scadenze per le aziende in UE

Cyber Resilience Act: la guida completa a obblighi e scadenze per le aziende in UE

Il Cyber Resilience Act (CRA) dell'Unione Europea impone ai produttori la responsabilità sulla sicurezza informatica dei prodotti con elementi digitali per l'intero ciclo di vita. Il regolamento, in vigore dal 10 dicembre 2024, introduce obblighi severi, come la segnalazione delle vulnerabilità entro 24 ore, e sanzioni fino a 10 milioni di euro, con adeguamento completo entro l'11 dicembre 2027.

[Altre storie]

Manifattura italiana a inizio 2026, tra sfide globali e un inaspettato ottimismo

Il settore manifatturiero italiano inizia il 2026 in una condizione di equilibrio precario. Nonostante l'indice PMI indichi ancora una contrazione e persistano sfide come l'aumento dei costi e la debolezza della domanda, le imprese mostrano un sorprendente ottimismo. La produzione, in particolare quella artigianale, dà segnali di ripresa, alimentando la fiducia per il futuro.

Intelligenza Artificiale: la promessa di crescita per il PIL globale e la trasformazione del lavoro secondo PwC

L'Intelligenza Artificiale promette una crescita del PIL mondiale fino al 15% entro il 2035, ma solo a precise condizioni di governance e sicurezza. Questa rivoluzione tecnologica sta ridisegnando il mercato del lavoro, automatizzando milioni di mansioni ma creandone di nuove. L'Italia, pur adottando rapidamente la tecnologia, affronta previsioni di crescita più caute e la sfida europea sul controllo delle infrastrutture.

IA agentica: come Deutsche Bank e Goldman Sachs rivoluzionano la sorveglianza dei trader

Deutsche Bank e Goldman Sachs stanno testando una nuova intelligenza artificiale agentica per la sorveglianza dei mercati finanziari. Questa tecnologia supera i sistemi tradizionali basati su regole, agendo in modo autonomo per identificare anomalie complesse e ridurre i falsi allarmi. L'obiettivo è passare a un monitoraggio predittivo, pur mantenendo la supervisione umana per le decisioni finali.

Anthropic lancia la modalità vocale per Claude Code: programmare con la voce è realtà

Anthropic ha introdotto una modalità vocale per il suo assistente alla programmazione, Claude Code, permettendo agli sviluppatori di interagire parlando. Annunciata il 3 marzo 2026, la funzione viene rilasciata gradualmente al 5% degli utenti. Sarà gratuita per tutti i piani di abbonamento e attivabile con la barra spaziatrice o il comando /voice.

La ricerca di Dario Amodei e Anthropic per le linee rosse dell’IA

Dario Amodei, ex vicepresidente della ricerca di OpenAI, ha fondato Anthropic con la missione di creare un'intelligenza artificiale più sicura. Ha lasciato OpenAI per divergenze etiche, preoccupato dall'influenza commerciale di Microsoft. Anthropic cerca di definire 'linee rosse' invalicabili per l'IA, bilanciando progresso tecnologico e sicurezza, nonostante le pressioni del mercato e dei suoi investitori.

Industria 4.0 il divario tra le aziende chi innova cresce ma la tecnologia non basta

Le aziende che investono in Industria 4.0 registrano una crescita del fatturato superiore di quasi nove punti rispetto alle altre. Un'analisi dell'Osservatorio Industria 4.0 evidenzia che il vero vantaggio competitivo emerge quando la tecnologia si unisce a una revisione strategica e organizzativa. Tuttavia, la mancanza di fondi e competenze specializzate frena una trasformazione digitale più diffusa.

Start Up Factory 2026 l’industria italiana incontra l’innovazione a MECSPE

Dal 4 al 6 marzo 2026, MECSPE a Bologna ospiterà la sesta edizione della Start Up Factory. L'iniziativa mira a creare un ponte tra l'industria manifatturiera italiana e le startup innovative, favorendo il trasferimento tecnologico e la competitività. Con il 12,9% delle startup innovative attive nel settore, l'evento sottolinea il ruolo cruciale dell'innovazione per la crescita economica.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP