La posticipazione ufficiale è dovuta alla mancanza di standard tecnici armonizzati, ma la mossa è interpretata come una concessione alle pressioni dell’industria e mette in una situazione paradossale l’Italia, che aveva già approvato un proprio quadro normativo.

[In pillole] La sintesi per chi va di fretta:
La Commissione Europea ha deciso di posticipare al dicembre 2027 l'entrata in vigore delle regole per i sistemi di intelligenza artificiale ad alto rischio. La mossa giustificata dalla mancanza di standard tecnici lascia l'Italia in una posizione scomoda avendo già introdotto una legge nazionale anticipatoria che rischia ora di penalizzare le imprese locali rispetto ai competitor europei.
Una frenata di sedici mesi per ripensare le regole
La Commissione europea ha deciso di tirare il freno a mano su quella che doveva essere la sua riforma più ambiziosa e rappresentativa del decennio. Con una mossa che ha sorpreso chi si aspettava un’implementazione lineare, Bruxelles ha proposto di posticipare di 16 mesi l’entrata in vigore delle norme più severe previste dall’AI Act, spostando la scadenza per i sistemi ad “alto rischio” dall’agosto 2026 al dicembre 2027.
Non si tratta di un dettaglio burocratico.
È invece un cambiamento sostanziale nella tabella di marcia che doveva fare dell’Europa il primo continente al mondo dotato di una “costituzione” per l’intelligenza artificiale. La decisione è stata inserita all’interno del cosiddetto “Digital Omnibus”, un pacchetto di misure correttive pensato per alleggerire il carico burocratico sulle imprese, ma che molti osservatori interpretano come un segnale di debolezza politica di fronte alle pressioni del mercato.
Ufficialmente, la Commissione ha attivato una procedura tecnica nota come “stop-the-clock”, un meccanismo che ferma l’orologio dell’attuazione normativa. La motivazione formale, come spiegato da fonti istituzionali a Bruxelles, risiede nell’assenza degli standard tecnici armonizzati: si tratta, in sostanza, dei manuali di istruzioni che spiegano alle aziende come rispettare la legge.
Senza questi documenti, che devono essere redatti dagli organismi di standardizzazione europei (CEN e CENELEC), le imprese si troverebbero nella paradossale situazione di dover rispettare regole di sicurezza rigorose senza sapere esattamente quali parametri tecnici adottare.
Tuttavia, dietro questa spiegazione logistica si nasconde una realtà più complessa.
Si tratta di una realtà fatta di ritardi accumulati e di una rincorsa affannosa per non soffocare l’innovazione europea mentre Stati Uniti e Cina corrono senza troppi vincoli.
La vicepresidente esecutiva della Commissione, Henna Virkkunen, ha cercato di normalizzare la situazione sostenendo che “nel settore dell’intelligenza artificiale stanno accadendo cose, gli standard sono in ritardo e le vere sfide emergeranno il prossimo anno”, come riportato da Adnkronos.
La sua dichiarazione suggerisce che l’Europa si sia resa conto, forse tardivamente, che imporre scadenze rigide su una tecnologia che cambia di settimana in settimana rischiava di creare un cortocircuito legale.
Ma se da un lato la Commissione parla di pragmatismo, dall’altro resta il dubbio.
Il sospetto è che questo rinvio sia il risultato di un’intensa attività di lobbying da parte delle grandi multinazionali tecnologiche, che da tempo lamentano l’eccessiva rigidità dell’approccio europeo.
Il peso delle lobby e la reazione dell’industria
Non è un mistero che l’industria tecnologica, sia quella europea che quella americana operante nel vecchio continente, abbia accolto la notizia con un sospiro di sollievo, se non addirittura con soddisfazione. Le associazioni di categoria spingevano da mesi per ottenere più tempo, sostenendo che i requisiti di conformità fossero troppo onerosi da implementare in tempi brevi. In Italia, ad esempio, Anitec-Assinform aveva esplicitamente richiesto una dilazione ancora più ampia, parlando della necessità di due anni extra per permettere alle imprese di adeguarsi a profili di compliance “senza precedenti”.
La tesi delle aziende è che, senza questo respiro, molte realtà avrebbero semplicemente smesso di sviluppare o importare sistemi avanzati in Europa, temendo sanzioni milionarie per il mancato rispetto di norme non ancora del tutto chiarite.
Questa narrazione, però, non convince tutti.
Diversi gruppi per la difesa dei diritti digitali vedono nel rinvio un pericoloso precedente, una sorta di resa della politica all’economia. Il timore è che posticipare le regole per i sistemi ad alto rischio (quelli che decidono chi assume un mutuo, chi viene assunto o come la polizia controlla le città) lasci i cittadini europei scoperti proprio nel momento in cui l’intelligenza artificiale sta diventando onnipresente. C’è chi sostiene che l’Europa stia barattando la sicurezza dei suoi cittadini per non scontentare i giganti della Silicon Valley, specialmente in un momento in cui l’amministrazione statunitense potrebbe spingere verso una deregolamentazione aggressiva.
– Leggi anche: Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale
Il rischio concreto è che questo “tempo extra” non venga usato per perfezionare gli standard tecnici, ma per annacquarli ulteriormente.
Se le aziende hanno 16 mesi in più per operare senza vincoli stringenti, si crea una finestra temporale in cui tecnologie potenzialmente invasive possono radicarsi nel tessuto sociale ed economico, rendendo poi molto più difficile regolarle retroattivamente nel 2027. La decisione della Commissione segnala quindi una volontà di privilegiare la competitività economica rispetto alla tutela preventiva dei diritti fondamentali, un cambio di paradigma rispetto alla retorica che aveva accompagnato il lancio dell’AI Act.
Questo cambio di rotta a Bruxelles crea però una situazione paradossale per i singoli stati membri, che nel frattempo si erano mossi per recepire le direttive o anticiparle, trovandosi ora spiazzati o, al contrario, in una posizione di avanguardia non richiesta.
L’Italia corre da sola mentre l’Europa aspetta
Mentre a Bruxelles si discute di rinvii e standard mancanti, l’Italia si trova in una situazione singolare.
Il governo ha infatti approvato la Legge n. 132/2025, entrata ufficialmente in vigore il 10 ottobre 2025, che rappresenta il primo quadro normativo nazionale pensato per accompagnare l’AI Act. Dal mese scorso le imprese italiane sono già tenute a verificare la conformità dei propri sistemi, definire una governance chiara e garantire trasparenza agli utenti.
Per ottemperare a tale obbligo di chiarezza pubblica, molte realtà si troverebbero nella condizione di dover aggiornare la propria presenza digitale, investendo nella realizzazione di siti corporate strutturati per comunicare in modo esplicito le policy di utilizzo dell’intelligenza artificiale.
L’Italia, in pratica, ha creato l’infrastruttura legale per applicare un regolamento europeo che ora l’Europa stessa ha deciso di congelare in buona parte.
Questa discrepanza temporale rischia di creare confusione.
Le aziende italiane si trovano a dover rispettare una legge nazionale che anticipa obblighi europei ora posticipati, con il rischio di svantaggi competitivi rispetto ai concorrenti di altri paesi UE che potranno godere del “periodo di grazia” concesso dalla Commissione.
La legge italiana istituisce anche investimenti per un miliardo di euro e definisce sanzioni penali per usi illeciti dell’IA, dimostrando un attivismo legislativo che ora cozza con la frenata continentale.
È la classica situazione in cui l’essere i “primi della classe” nel recepire le norme potrebbe trasformarsi in un onere burocratico solitario.
C’è poi un aspetto grottesco che emerge dalle aule parlamentari romane e che ben descrive la distanza tra la teoria della regolamentazione e la pratica quotidiana.
Mentre si scrivono leggi severe sull’uso dell’IA, deputati e senatori utilizzano massicciamente strumenti commerciali come ChatGPT e Gemini per scrivere ed analizzare gli emendamenti alla manovra finanziaria, come evidenziato dall’Osservatorio AI per la PA.
Preferiscono la velocità dei chatbot privati ai sistemi sicuri della Camera, esponendo potenzialmente dati sensibili a quelle stesse multinazionali che la legge vorrebbe imbrigliare.
È la dimostrazione plastica di come la tecnologia corra sempre più veloce della capacità delle istituzioni di gestirla, o anche solo di comprenderne le implicazioni di sicurezza basilari.
Il rinvio al 2027, dunque, non è solo una questione di date.
È il sintomo di una difficoltà strutturale dell’Unione Europea nel mantenere il passo con una rivoluzione tecnologica che non controlla, dato che i grandi player sono quasi tutti americani.
La scommessa di Bruxelles è che questi 16 mesi servano a creare regole migliori e più applicabili; il timore è che servano solo a rendere l’Europa un mercato più docile per i giganti del tech, mentre i cittadini attendono tutele che continuano a slittare nel futuro.



