La guida del Garante europeo della protezione dei dati, pur rivolta formalmente alle istituzioni, propone a tutte le aziende un cambio di mentalità che superi la conformità burocratica per sviluppare una vera ‘alfabetizzazione del rischio’ nell’uso dell’intelligenza artificiale.

[In pillole] La sintesi per chi va di fretta:
Il Garante europeo della protezione dei dati EDPS ha pubblicato una guida che rivoluziona l'approccio aziendale all'intelligenza artificiale. Non basta più la conformità formale al GDPR. Le imprese devono adottare un'alfabetizzazione del rischio comprendendo e mitigando attivamente pericoli come bias e data poisoning dimostrando piena accountability attraverso una documentazione rigorosa
I rischi specifici dell’intelligenza artificiale, oltre la cybersicurezza tradizionale
Per anni, la sicurezza informatica si è concentrata sulla protezione delle reti, dei server e dei dati a riposo. Con l’intelligenza artificiale, però, il perimetro di attacco si è allargato in modi nuovi e sottili.
La guida dell’EDPS mette in guardia contro vulnerabilità che vanno oltre i tradizionali virus o attacchi hacker.
Si parla, per esempio, di “data poisoning” e “model poisoning”: tecniche con cui un malintenzionato può “avvelenare” i dati usati per addestrare un modello o il modello stesso, introducendo di nascosto errori, vulnerabilità o distorsioni che si manifesteranno solo in un secondo momento.
Un sistema di riconoscimento facciale, per esempio, potrebbe essere sabotato per non riconoscere una specifica categoria di persone, o un algoritmo di valutazione del credito potrebbe essere manipolato per penalizzare determinati profili.
Un altro punto fondamentale che emerge dal documento è la distinzione, per nulla scontata, tra “interpretabilità” e “spiegabilità” di un modello. Come spiega un’analisi di Diritto al Digitale, non sono la stessa cosa.
L’interpretabilità riguarda la capacità tecnica di capire come un modello arriva a una conclusione, analizzando i suoi meccanismi interni.
La spiegabilità, invece, è la capacità di tradurre questa comprensione tecnica in una motivazione chiara e comprensibile per un essere umano, che sia un cliente, un giudice o un’autorità di controllo.
Un sistema può essere interpretabile per un data scientist, ma non spiegabile a un utente che si è visto negare un mutuo. L’EDPS insiste su entrambi gli aspetti, perché senza di essi viene a mancare la base per la fiducia e per l’esercizio dei propri diritti.
A queste sfide si aggiunge anche una distinzione cruciale sul piano dei “bias”. La guida ne identifica due tipi: quello algoritmico, che nasce dai dati di addestramento o dalla progettazione stessa del sistema, e quello interpretativo.
Quest’ultimo è forse il più insidioso: si verifica quando gli esseri umani che utilizzano i risultati dell’intelligenza artificiale li interpretano in modo distorto, proiettando i propri pregiudizi sul risultato apparentemente oggettivo della macchina.
Di fronte a queste complessità, diventa chiaro che la gestione del rischio non può essere delegata al solo reparto IT. Serve un approccio multidisciplinare, con tavoli di lavoro a cui siedano informatici, legali ed esperti del settore specifico in cui l’algoritmo viene applicato.
Eppure, anche con le migliori intenzioni, tutte queste precauzioni si scontrano con un paradosso fondamentale che sta al cuore della normativa europea sulla privacy.
Il paradosso dei dati e le soluzioni proposte
Il Regolamento Generale sulla Protezione dei Dati (GDPR) si fonda su un principio cardine: la minimizzazione dei dati. In sintesi, un’organizzazione dovrebbe raccogliere e trattare solo i dati strettamente necessari per raggiungere una finalità specifica.
I modelli di intelligenza artificiale più potenti, però, funzionano esattamente al contrario: più dati hanno a disposizione per l’addestramento, migliori sono, in teoria, le loro performance. Questa è una tensione che mette in discussione il modello di business di molte grandi aziende tecnologiche, basato sull’accumulo quasi indiscriminato di dati, e che pone un problema pratico a chiunque voglia sviluppare soluzioni di intelligenza artificiale efficaci e al tempo stesso rispettose della privacy.
La guida dell’EDPS non ignora questo conflitto, ma suggerisce alcune strade per gestirlo. Una delle più interessanti è il concetto di “machine un-learning”, gioco di parole sul noto machine learning, ovvero la capacità tecnica di far “dimenticare” a un modello un’informazione specifica (per esempio, i dati di un utente che ha chiesto la cancellazione) senza dover riaddestrare l’intero sistema da zero.
Si tratta di una frontiera tecnologica ancora in evoluzione, ma il fatto che un’autorità di controllo la citi esplicitamente è un segnale importante per il mercato: chi svilupperà soluzioni di questo tipo avrà un vantaggio competitivo. Dove questo non fosse possibile, si suggeriscono tecniche di filtraggio in tempo reale per bloccare la diffusione di dati personali che l’intelligenza artificiale potrebbe generare per errore.
– Leggi anche: Amazon e OpenAI, l’alleanza a sorpresa che scuote il mercato dell’IA
Alla base di tutto, comunque, resta il principio di accountability, cioè di responsabilizzazione. L’EDPS è molto chiaro su questo: non basta fare le cose giuste, bisogna essere in grado di dimostrare di averle fatte. Per questo, la documentazione diventa un elemento centrale.
Le aziende devono tenere traccia di tutto: delle fonti dei dati di addestramento, delle valutazioni fatte sui rischi, delle misure di mitigazione adottate, dei test eseguiti per misurare i “bias”. Questa mole di documentazione non è un mero onere burocratico, ma la prova concreta del cambiamento di mentalità richiesto.
È la dimostrazione di essere passati da un approccio passivo, basato sulla fiducia cieca nella tecnologia, a uno attivo e critico, basato sulla comprensione e sul governo dei processi. In questo senso, la guida del Garante europeo non è tanto un elenco di divieti, quanto una mappa per navigare una tecnologia complessa in modo responsabile, trasformando un potenziale rischio in un’opportunità di innovazione più solida e sostenibile.



