Intelligenza artificiale: la nuova guida EDPS per la gestione del rischio aziendale

· news

La guida del Garante europeo della protezione dei dati, pur rivolta formalmente alle istituzioni, propone a tutte le aziende un cambio di mentalità che superi la conformità burocratica per sviluppare una vera ‘alfabetizzazione del rischio’ nell’uso dell’intelligenza artificiale.

Intelligenza artificiale: la nuova guida EDPS per la gestione del rischio aziendale
[In pillole] La sintesi per chi va di fretta:

Il Garante europeo della protezione dei dati EDPS ha pubblicato una guida che rivoluziona l'approccio aziendale all'intelligenza artificiale. Non basta più la conformità formale al GDPR. Le imprese devono adottare un'alfabetizzazione del rischio comprendendo e mitigando attivamente pericoli come bias e data poisoning dimostrando piena accountability attraverso una documentazione rigorosa

I rischi specifici dell’intelligenza artificiale, oltre la cybersicurezza tradizionale

Per anni, la sicurezza informatica si è concentrata sulla protezione delle reti, dei server e dei dati a riposo. Con l’intelligenza artificiale, però, il perimetro di attacco si è allargato in modi nuovi e sottili.

La guida dell’EDPS mette in guardia contro vulnerabilità che vanno oltre i tradizionali virus o attacchi hacker.

Si parla, per esempio, di “data poisoning” e “model poisoning”: tecniche con cui un malintenzionato può “avvelenare” i dati usati per addestrare un modello o il modello stesso, introducendo di nascosto errori, vulnerabilità o distorsioni che si manifesteranno solo in un secondo momento.

Un sistema di riconoscimento facciale, per esempio, potrebbe essere sabotato per non riconoscere una specifica categoria di persone, o un algoritmo di valutazione del credito potrebbe essere manipolato per penalizzare determinati profili.

Un altro punto fondamentale che emerge dal documento è la distinzione, per nulla scontata, tra “interpretabilità” e “spiegabilità” di un modello. Come spiega un’analisi di Diritto al Digitale, non sono la stessa cosa.

L’interpretabilità riguarda la capacità tecnica di capire come un modello arriva a una conclusione, analizzando i suoi meccanismi interni.

La spiegabilità, invece, è la capacità di tradurre questa comprensione tecnica in una motivazione chiara e comprensibile per un essere umano, che sia un cliente, un giudice o un’autorità di controllo.

Un sistema può essere interpretabile per un data scientist, ma non spiegabile a un utente che si è visto negare un mutuo. L’EDPS insiste su entrambi gli aspetti, perché senza di essi viene a mancare la base per la fiducia e per l’esercizio dei propri diritti.

A queste sfide si aggiunge anche una distinzione cruciale sul piano dei “bias”. La guida ne identifica due tipi: quello algoritmico, che nasce dai dati di addestramento o dalla progettazione stessa del sistema, e quello interpretativo.

Quest’ultimo è forse il più insidioso: si verifica quando gli esseri umani che utilizzano i risultati dell’intelligenza artificiale li interpretano in modo distorto, proiettando i propri pregiudizi sul risultato apparentemente oggettivo della macchina.

Di fronte a queste complessità, diventa chiaro che la gestione del rischio non può essere delegata al solo reparto IT. Serve un approccio multidisciplinare, con tavoli di lavoro a cui siedano informatici, legali ed esperti del settore specifico in cui l’algoritmo viene applicato.

Eppure, anche con le migliori intenzioni, tutte queste precauzioni si scontrano con un paradosso fondamentale che sta al cuore della normativa europea sulla privacy.

APP

Il paradosso dei dati e le soluzioni proposte

Il Regolamento Generale sulla Protezione dei Dati (GDPR) si fonda su un principio cardine: la minimizzazione dei dati. In sintesi, un’organizzazione dovrebbe raccogliere e trattare solo i dati strettamente necessari per raggiungere una finalità specifica.

I modelli di intelligenza artificiale più potenti, però, funzionano esattamente al contrario: più dati hanno a disposizione per l’addestramento, migliori sono, in teoria, le loro performance. Questa è una tensione che mette in discussione il modello di business di molte grandi aziende tecnologiche, basato sull’accumulo quasi indiscriminato di dati, e che pone un problema pratico a chiunque voglia sviluppare soluzioni di intelligenza artificiale efficaci e al tempo stesso rispettose della privacy.

La guida dell’EDPS non ignora questo conflitto, ma suggerisce alcune strade per gestirlo. Una delle più interessanti è il concetto di “machine un-learning”, gioco di parole sul noto machine learning, ovvero la capacità tecnica di far “dimenticare” a un modello un’informazione specifica (per esempio, i dati di un utente che ha chiesto la cancellazione) senza dover riaddestrare l’intero sistema da zero.

Si tratta di una frontiera tecnologica ancora in evoluzione, ma il fatto che un’autorità di controllo la citi esplicitamente è un segnale importante per il mercato: chi svilupperà soluzioni di questo tipo avrà un vantaggio competitivo. Dove questo non fosse possibile, si suggeriscono tecniche di filtraggio in tempo reale per bloccare la diffusione di dati personali che l’intelligenza artificiale potrebbe generare per errore.

– Leggi anche: Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA

Alla base di tutto, comunque, resta il principio di accountability, cioè di responsabilizzazione. L’EDPS è molto chiaro su questo: non basta fare le cose giuste, bisogna essere in grado di dimostrare di averle fatte. Per questo, la documentazione diventa un elemento centrale.

Le aziende devono tenere traccia di tutto: delle fonti dei dati di addestramento, delle valutazioni fatte sui rischi, delle misure di mitigazione adottate, dei test eseguiti per misurare i “bias”. Questa mole di documentazione non è un mero onere burocratico, ma la prova concreta del cambiamento di mentalità richiesto.

È la dimostrazione di essere passati da un approccio passivo, basato sulla fiducia cieca nella tecnologia, a uno attivo e critico, basato sulla comprensione e sul governo dei processi. In questo senso, la guida del Garante europeo non è tanto un elenco di divieti, quanto una mappa per navigare una tecnologia complessa in modo responsabile, trasformando un potenziale rischio in un’opportunità di innovazione più solida e sostenibile.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA

Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA

Circola l'indiscrezione di un enorme investimento di Amazon in OpenAI, la società di ChatGPT. La mossa è sorprendente dato il legame di Amazon con Anthropic e quello di OpenAI con Microsoft. L'operazione potrebbe ridisegnare gli equilibri nel mercato dell'intelligenza artificiale, mettendo in discussione le attuali alleanze strategiche e la competizione nel settore del cloud computing.

L’intelligenza artificiale è l’arma preferita degli hacker e le aziende non sono pronte

L’intelligenza artificiale è l’arma preferita degli hacker e le aziende non sono pronte

L intelligenza artificiale è diventata la principale arma degli hacker, con l ottantasette percento delle aziende colpite da attacchi IA nell ultimo anno secondo SoSafe. Phishing, deepfake e attacchi multicanale sono in crescita esponenziale. Le organizzazioni si trovano impreparate, con budget e competenze inadeguati ad affrontare una minaccia che evolve più velocemente delle loro difese, rendendo l elemento umano più vulnerabile.

Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale

La nuova integrazione di Apple Music in ChatGPT consente agli abbonati di creare playlist personalizzate e ricevere suggerimenti musicali tramite conversazione. L'applicazione, seguendo l'esempio di Spotify, genera e salva direttamente le playlist nell'account dell'utente, distinguendosi per l'inclusione di brevi anteprime audio dei brani, una funzione pensata per mantenere l'ascolto principale all'interno dell'ecosistema Apple.

[Altre storie]

La svolta AI di Microsoft verso il 2026 tra agenti autonomi e aumenti di prezzo

La svolta AI di Microsoft verso il 2026 tra agenti autonomi e aumenti di prezzo

Microsoft punta al 2026 per una rivoluzione dell'intelligenza artificiale, trasformando Copilot in un agente autonomo integrato nel lavoro quotidiano. Questa transizione strategica, che promette più efficienza, si basa su ingenti investimenti e comporterà un inevitabile aumento dei prezzi per le suite Microsoft 365, ponendo nuove sfide di sicurezza e controllo per le aziende.

Trump ribalta le politiche di Biden, via libera ai chip AI di Nvidia per la Cina

L'amministrazione di Donald Trump ha siglato un accordo con la Cina che consente a Nvidia di vendere alcuni chip per l'IA. La mossa inverte le rigide politiche di Joe Biden, permettendo l'export del chip H200 a clienti approvati ma escludendo le tecnologie più avanzate. La decisione, pur sostenendo l'industria USA, è criticata come un rischio per la sicurezza nazionale.

Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Meta ha svelato V-JEPA una nuova architettura AI ideata da Yann LeCun che apprende le leggi della fisica osservando video invece di leggere testi. Il sistema mira a superare i limiti dei chatbot attuali sviluppando un modello del mondo simile all intuizione umana aprendo la strada a robot piu autonomi e dispositivi di realta aumentata efficienti.

Falla di sicurezza zero day in Google Chrome usata per attacchi informatici

Google ha rilasciato un aggiornamento d'emergenza per Chrome per risolvere una vulnerabilità zero-day, l'ottava del 2025. Identificata come CVE-2025-14174 e di gravità alta, la falla è già attivamente sfruttata da aggressori. Il problema, localizzato nel componente ANGLE, può permettere l'esecuzione di codice malevolo, rendendo cruciale l'aggiornamento immediato del browser per tutti gli utenti.

OpenAI dichiara Codice Rosso e cambia i piani per sfidare Google

Sam Altman ha dichiarato un code red in OpenAI per rispondere alla rapida ascesa di Google Gemini. L azienda ha congelato progetti secondari e pubblicità per concentrarsi sul rendere ChatGPT un assistente personale indispensabile. L obiettivo strategico è creare un abitudine di utilizzo quotidiana negli utenti e difendere la propria posizione di mercato minacciata dal rivale di Mountain View.

Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi

La Commissione Europea ha deciso di posticipare al dicembre 2027 l'entrata in vigore delle regole per i sistemi di intelligenza artificiale ad alto rischio. La mossa giustificata dalla mancanza di standard tecnici lascia l'Italia in una posizione scomoda avendo già introdotto una legge nazionale anticipatoria che rischia ora di penalizzare le imprese locali rispetto ai competitor europei.

NANOREMOTE il malware che si nasconde dentro Google Drive

Un nuovo e sofisticato malware per Windows, chiamato NANOREMOTE, utilizza Google Drive per comunicare con i suoi controllori e rubare dati, mascherando il suo traffico da attività legittima. Questa backdoor, quasi invisibile ai sistemi di sicurezza, è collegata al gruppo di hacker cinesi REF7707 e viene usata in operazioni di spionaggio contro organizzazioni strategiche a livello globale.

Flexiv lancia FMR 300 la base mobile che libera i robot dai bulloni

Flexiv ha presentato l'FMR 300, una base mobile autonoma capace di trasportare bracci robotici e carichi fino a 270 kg. La tecnologia utilizza sensori di forza invece della visione artificiale per compensare gli errori di posizionamento, permettendo lavorazioni precise in stazioni multiple. Questa soluzione mira a ottimizzare i flussi produttivi riducendo la dipendenza da macchinari fissi.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP