Il testo punta a definire un “modello italiano” per lo sviluppo dell’IA, integrando il regolamento europeo con nuove disposizioni su sanità, lavoro, diritto d’autore e reati legati ai deepfake.

[In pillole] La sintesi per chi va di fretta:
Il 17 settembre 2025, l'Italia ha approvato la sua prima legge sull'intelligenza artificiale, prima nazione UE dopo l'AI Act. Il testo punta a un "modello italiano" che bilancia innovazione e tutela, con un miliardo di euro in investimenti. Regolamenta settori chiave come sanità, lavoro e diritto d'autore, introducendo norme contro i deepfake.
La prima legge italiana sull’intelligenza artificiale
Il 17 settembre 2025 il Senato ha approvato in via definitiva la prima legge italiana sull’intelligenza artificiale, un testo che prova a regolamentare uno dei settori tecnologici più discussi e dirompenti degli ultimi anni. Con questa mossa, l’Italia non solo si è dotata di un quadro normativo nazionale, ma è anche diventata il primo paese dell’Unione Europea a farlo dopo l’approvazione del più generale AI Act europeo.
Si tratta di una scelta strategica importante, che va oltre la semplice adozione di nuove regole: è il tentativo di definire un “modello italiano” per lo sviluppo e l’uso di queste tecnologie, con l’ambizione di attrarre investimenti e allo stesso tempo di garantire che l’innovazione rispetti diritti e principi fondamentali. La legge, composta da 28 articoli, prova a tenere insieme due esigenze spesso in conflitto: da un lato, la necessità di non ostacolare la ricerca e la competitività delle imprese; dall’altro, l’urgenza di proteggere i cittadini da possibili abusi, discriminazioni e rischi per la sicurezza.
Il governo ha presentato questa legge come un’opportunità per le aziende, che ora avrebbero a disposizione “regole trasparenti e un ecosistema pronto a sostenere progetti concreti”, come ha spiegato il Sottosegretario con delega all’Innovazione, Alessio Butti. La legge si muove infatti su un doppio binario: da una parte stabilisce principi, divieti e sanzioni, dall’altra mette in campo un programma di investimenti da un miliardo di euro destinato a startup e piccole e medie imprese che lavorano sull’intelligenza artificiale e sulla cybersicurezza.
È un approccio che cerca di combinare regolamentazione e incentivi, ma la cui efficacia dipenderà molto da come questi due aspetti verranno concretamente gestiti. Resta infatti da vedere se questo miliardo di euro sarà sufficiente a stimolare un settore che, a livello globale, vede investimenti di centinaia di miliardi da parte di colossi tecnologici e governi stranieri.
L’approvazione della legge, insomma, non è un punto di arrivo, ma l’inizio di un percorso molto complesso, che dovrà bilanciare ambizioni nazionali e una realtà tecnologica ed economica dominata da attori molto più grandi e potenti.
Un “modello italiano” per l’intelligenza artificiale
Il cuore della nuova legge è la creazione di una struttura di governance nazionale che si affianca e specifica quanto già previsto dall’AI Act europeo. Il testo italiano non si sovrappone al regolamento comunitario, ma lo integra, designando le autorità nazionali competenti e definendo le procedure per la sua applicazione in Italia. In sostanza, mentre l’Europa ha fissato le regole generali, l’Italia ha deciso come farle rispettare sul proprio territorio.
Le due autorità principali incaricate di questo compito sono l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN). All’AgID spetterà il compito di promuovere uno sviluppo dell’IA che sia considerato sicuro e affidabile, gestendo le notifiche e i registri dei sistemi di intelligenza artificiale. L’ACN, invece, avrà un ruolo di vigilanza più orientato alla sicurezza, assicurando che i sistemi di IA, specialmente quelli considerati ad alto rischio, non presentino vulnerabilità e rispettino gli standard di cybersicurezza.
Questa suddivisione di compiti, sulla carta, sembra logica: un’agenzia promuove l’innovazione e un’altra ne controlla i rischi. Tuttavia, la sfida sarà evitare sovrapposizioni e conflitti di competenza che potrebbero generare confusione e rallentamenti burocratici per le aziende. Un’impresa che sviluppa un nuovo software basato sull’IA potrebbe trovarsi a dover interagire con entrambe le agenzie, seguendo procedure diverse e rispondendo a requisiti non sempre perfettamente allineati.
Questa potenziale complessità burocratica pone una sfida diretta alle imprese, che non possono più affidarsi a soluzioni tecnologiche generiche. Per navigare un quadro normativo così specifico, la strada più sicura ed efficiente diventa lo sviluppo di intelligenze artificiali su misura, progettate fin dall’origine per essere conformi alle normative italiane e per dialogare correttamente con le autorità designate.
– Leggi anche: Puglia: un assistente didattico AI in cattedra negli ITS dal prossimo anno
La legge, come descritto nel dossier della Camera dei Deputati, insiste molto su principi come la trasparenza, la proporzionalità e la centralità della supervisione umana, concetti fondamentali ma che richiederanno decreti attuativi molto dettagliati per essere tradotti in pratiche concrete.
L’idea di un “modello italiano” basato su un’intelligenza artificiale “antropocentrica”, ovvero con l’essere umano sempre al centro del processo decisionale, è certamente affascinante, ma la sua realizzazione dipenderà dalla capacità di queste nuove strutture di funzionare in modo efficiente.
Al di là dei principi generali, però, la legge interviene con disposizioni molto specifiche su settori che toccano direttamente la vita delle persone, dal modo in cui veniamo curati a come cerchiamo lavoro, fino a ridefinire cosa sia un’opera d’arte.
Tra sanità, lavoro e diritto d’autore
La legge non si limita a enunciare principi, ma entra nel merito di come l’intelligenza artificiale potrà essere utilizzata in alcuni degli ambiti più delicati della società. In sanità, per esempio, si promuove l’uso di sistemi di IA per migliorare le diagnosi e personalizzare le terapie, ma si stabiliscono anche paletti precisi per la protezione dei dati sanitari e si ribadisce che la decisione finale sulla cura di un paziente deve sempre rimanere in capo al medico.
Nel mondo del lavoro, invece, il testo cerca di affrontare una delle paure più diffuse: quella che gli algoritmi possano decidere assunzioni, promozioni o licenziamenti in modo discriminatorio. La legge stabilisce che l’uso di sistemi automatizzati nei processi di gestione del personale debba garantire la trasparenza e la non discriminazione, ma non è ancora del tutto chiaro come questo principio verrà fatto rispettare, specialmente quando si tratta di algoritmi complessi il cui funzionamento interno è difficile da ispezionare.
Uno degli aspetti più innovativi e potenzialmente controversi riguarda il diritto d’autore. La legge interviene per modificare la normativa esistente, estendendo la protezione anche alle opere create con un contributo significativo dell’intelligenza artificiale. È una presa di posizione importante nel dibattito globale su chi sia l’autore – e quindi il titolare dei diritti – di un testo, un’immagine o una musica generati da un’IA.
La norma italiana sembra suggerire che, se c’è un input creativo umano rilevante, l’opera che ne deriva possa essere protetta da copyright. Questa scelta potrebbe da un lato incentivare l’uso creativo dell’IA, ma dall’altro apre complesse questioni legali.
Cosa si intende per “contributo umano significativo”?
E come si concilia questa norma con il modello di business delle grandi aziende tecnologiche, che addestrano i loro sistemi su enormi archivi di opere protette da copyright, spesso senza chiedere autorizzazioni né riconoscere compensi?
È improbabile che multinazionali come Google, Microsoft o OpenAI adattino i loro modelli di business globali a una specifica legge italiana. È più verosimile che si aprirà un lungo contenzioso legale, simile a quello già in corso tra testate giornalistiche e piattaforme digitali.
Ma oltre a regolare i mercati e i settori produttivi, la legge si spinge anche nel campo del diritto penale, introducendo nuovi reati per punire chi usa l’intelligenza artificiale per scopi illeciti.
La questione dei “deepfake” e le garanzie penali
Una delle parti della legge che ha ricevuto maggiore attenzione è quella che riguarda l’introduzione di nuove norme penali per contrastare l’uso malevolo dell’intelligenza artificiale. Il testo rende esplicitamente un reato la diffusione di contenuti falsi generati con l’IA, come i cosiddetti “deepfake”, quando questi sono creati con lo scopo di ingannare e causare un danno.
Si tratta di una risposta diretta a una preoccupazione molto concreta: la possibilità che video o audio falsi, ma estremamente realistici, possano essere usati per campagne di disinformazione, per commettere truffe o per danneggiare la reputazione di una persona. La legge inasprisce le pene se a essere manipolata è l’immagine di una persona in stato di minorità o di particolare fragilità.
L’intento del legislatore è chiaro: provare a ristabilire un principio di verità e di responsabilità in un ambiente digitale dove distinguere il vero dal falso sta diventando sempre più difficile.
Tuttavia, anche in questo caso, l’efficacia della norma dipenderà dalla sua applicabilità. Identificare e perseguire chi crea e diffonde un “deepfake” è tecnicamente molto complicato, soprattutto se chi agisce lo fa dall’estero, utilizzando sistemi anonimi. Inoltre, la legge dovrà essere applicata in modo da non limitare la libertà di espressione o la satira, che spesso fa uso di manipolazioni dell’immagine per scopi critici e non dannosi.
La sfida sarà quindi quella di colpire l’uso illecito senza reprimere quello legittimo.
In un senso più ampio, questa parte della legge riflette la filosofia di fondo del testo: l’idea che la tecnologia debba sempre essere soggetta a una “sorveglianza umana”.
Ma cosa significa concretamente “supervisione umana” quando abbiamo a che fare con sistemi che operano a una velocità e con una complessità che superano le capacità di comprensione di un singolo individuo?
La legge italiana sull’intelligenza artificiale è un tentativo ambizioso di dare una risposta a queste domande. È un passo importante, che pone l’Italia in una posizione di avanguardia in Europa.
Ma è solo il primo passo di un lungo cammino.
Il nodo della questione non sarà solo far rispettare le regole, ma anche far sì che queste non invecchino rapidamente, travolte da una tecnologia che continua a evolversi a un ritmo che nessuna legge potrà mai veramente seguire.
 
         
         
         
        


