Questa evoluzione è motivata da un volume di minacce informatiche che supera le capacità umane di analisi, portando l’azienda a delegare la prima linea di difesa a sistemi di intelligenza artificiale autonomi.

[In pillole] La sintesi per chi va di fretta:
Microsoft sta rivoluzionando la cybersecurity, trasformando la sua IA da assistente a un sistema di agenti autonomi. Di fronte a 84 trilioni di minacce giornaliere, questi agenti agiranno in prima persona per bloccare attacchi e isolare dispositivi. Questo cambio di paradigma mira a superare i limiti dell'analisi umana, spostando i professionisti verso un ruolo di supervisori strategici.
L’assistente che diventa autonomo
Il passaggio da un’intelligenza artificiale passiva a una attiva è il cuore della nuova strategia di Microsoft. Vasu Jakkal, Corporate Vice President della divisione sicurezza, lo ha definito “il prossimo punto di svolta” per l’IA nella cybersecurity.
In un’intervista esclusiva con Infosecurity Magazine, Jakkal ha spiegato che Security Copilot si sta trasformando da un assistente IA passivo ad assistenti IA attivi, autonomi e adattivi che possono completare compiti per tuo conto, ovviamente con la supervisione umana.
Questo significa che, invece di limitarsi a fornire analisi e suggerimenti, i nuovi agenti software potranno eseguire azioni concrete: isolare un dispositivo compromesso, bloccare un account sospetto o applicare una patch di sicurezza.
Per rendere concreta questa visione, Microsoft ha introdotto sei agenti specifici, ognuno progettato per gestire un compito particolare. Per esempio, l’agente specializzato nella gestione del phishing è stato addestrato per analizzare l’enorme flusso di email fraudolente (tra gennaio e dicembre 2024 ne sono state documentate 30 miliardi) e distinguere autonomamente i falsi allarmi dalle minacce reali, fornendo poi una spiegazione trasparente del suo processo decisionale.
Un altro agente si occupa di ottimizzare gli accessi condizionati, monitorando la rete alla ricerca di utenti o applicazioni non coperti da adeguate politiche di sicurezza e suggerendo soluzioni applicabili con un solo clic.
Il dettaglio del “singolo clic” non è banale: significa che la complessità tecnica viene assorbita dall’interfaccia. Progettare questa semplicità è il campo della progettazione di interfacce e user experience, dove l’obiettivo è rendere invisibile tutto ciò che è difficile.
Esistono poi agenti per la gestione delle vulnerabilità, per la valutazione degli allarmi legati alla perdita di dati e persino uno che prepara un bollettino personalizzato sulle minacce più pertinenti per una specifica organizzazione.
Dietro ogni agente di questo tipo c’è un lavoro di addestramento specifico sul dominio applicativo. Non a caso, chi sceglie di adottare soluzioni simili in contesti aziendali propri si affida a progetti di sviluppo di intelligenza artificiale su misura, dove il modello viene costruito attorno ai dati e ai flussi reali dell’organizzazione.
I primi dati sull’adozione di questi strumenti sembrano confermare un notevole aumento di efficienza. Una ricerca interna di Microsoft, chiamata Security Insider, ha rilevato che le organizzazioni che utilizzano questi sistemi hanno ridotto il tempo necessario per analizzare un singolo allarme di phishing da trenta minuti a soli tre.
Questo non solo libera tempo prezioso per gli analisti, permettendo loro di concentrarsi su minacce più complesse, ma affronta anche il problema del burnout, sempre più diffuso tra i professionisti del settore. Tuttavia, affidare decisioni così delicate a un algoritmo introduce un nuovo livello di complessità:
Cosa succede se un agente commette un errore?
E chi è responsabile se un’azione autonoma causa un danno involontario?
Un nuovo modello di sorveglianza (anche per gli agenti stessi)
L’introduzione di agenti autonomi all’interno di un’infrastruttura aziendale crea, inevitabilmente, nuove superfici di attacco. Un agente AI, per quanto sofisticato, è pur sempre un software e come tale può essere manipolato o compromesso. Microsoft sembra essere consapevole di questo rischio, tanto da aver sviluppato parallelamente una serie di strumenti pensati proprio per monitorare e proteggere gli agenti stessi.
In pratica, ha creato dei “guardiani” per i suoi nuovi “difensori” automatizzati.
Tra queste nuove misure di sicurezza c’è Entra Agent ID, un sistema per scoprire e gestire un inventario di tutti gli agenti attivi in un’azienda, trattandoli alla stregua di utenti o applicazioni da tenere sotto controllo. A questo si aggiungono i cosiddetti “Agent Risk Signals”, meccanismi di monitoraggio che valutano il comportamento degli agenti per identificare anomalie, rischi legati all’identità o interazioni sospette con dati sensibili.
Come si legge sul blog ufficiale di Microsoft Security, l’azienda sta estendendo le sue capacità di prevenzione della perdita di dati (DLP) anche alle richieste inviate agli agenti, per impedire che informazioni sensibili come dati personali o numeri di carte di credito vengano processate in modo inappropriato.
– Leggi anche: Prompt injection e data poisoning, le nuove armi digitali che sfruttano l’Intelligenza Artificiale
Queste contromisure sono una risposta diretta alle nuove minacce identificate da organizzazioni come OWASP, che ha stilato una lista dei rischi specifici per le intelligenze artificiali generative. Tra questi figurano l’iniezione di prompt indiretti (una tecnica per ingannare l’IA e farle eseguire comandi malevoli), l’esposizione di dati sensibili e altri tipi di abusi.
La mossa di Microsoft è quindi un’ammissione implicita che l’autonomia degli agenti non è priva di pericoli e richiede un livello di sorveglianza altrettanto avanzato. Si delinea così una sorta di corsa agli armamenti interna, dove l’intelligenza artificiale viene usata non solo per difendersi dalle minacce esterne, ma anche per controllare se stessa.
Ma in questo complesso gioco di equilibri, Microsoft agisce da sola o sta cercando di costruire un fronte più ampio?
La difesa non è più un’attività solitaria
La strategia di Microsoft non si limita allo sviluppo di strumenti proprietari, ma punta a creare una piattaforma aperta a contributi esterni. L’azienda ha annunciato l’integrazione di agenti sviluppati da cinque partner, ognuno con una sua specializzazione.
OneTrust, per esempio, ha creato un agente che analizza le violazioni della privacy e genera automaticamente indicazioni per rispettare le normative vigenti. Aviatrix, invece, offre un agente per supervisionare le infrastrutture di rete ed eseguire analisi delle cause in caso di guasti.
Altri partner come BlueVoyant, Tanium e Fletch hanno sviluppato agenti per ottimizzare le operazioni dei centri di sicurezza (SOC), arricchire gli allarmi con informazioni contestuali e prevedere quali minacce richiedono un’attenzione prioritaria per ridurre il sovraccarico di lavoro degli analisti.
Questo approccio collaborativo suggerisce che la complessità della sicurezza informatica moderna è tale che nessuna singola azienda, per quanto grande, può sperare di affrontarla da sola.
Blake Brannon, Chief Product and Strategy Officer di OneTrust, ha commentato che “un approccio agentico alla privacy cambierà le regole del gioco per il settore”, sottolineando come l’IA autonoma possa aumentare l’efficacia delle operazioni di protezione dei dati.
La visione è quella di un sistema in cui diversi agenti specializzati collaborano tra loro, orchestrati dalla piattaforma centrale di Microsoft.
L’ultimo tassello di questa visione è forse il più ambizioso: la difesa predittiva.
Sfruttando la mole di dati raccolta quotidianamente, Microsoft sta sperimentando una funzionalità chiamata “predictive shielding” (schermatura predittiva). Invece di reagire a un attacco già in corso, il sistema cerca di anticipare le mosse successive di un aggressore.
Analizzando il comportamento di una minaccia, l’IA prevede quali potrebbero essere i prossimi bersagli all’interno della rete e applica in anticipo delle misure di protezione mirate per bloccare l’attacco prima ancora che venga sferrato.
Il passaggio a una difesa autonoma e predittiva segna una rottura netta con il passato.
Il ruolo del professionista della sicurezza non scompare, ma si trasforma: meno tempo dedicato a compiti ripetitivi e più a definire le strategie, supervisionare gli agenti e gestire le eccezioni che ancora richiedono intuito e giudizio umano.
Resta però da vedere come questo nuovo equilibrio tra uomo e macchina si evolverà e quali nuove, impreviste sfide porterà con sé.



