Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi

· news

La posticipazione ufficiale è dovuta alla mancanza di standard tecnici armonizzati, ma la mossa è interpretata come una concessione alle pressioni dell’industria e mette in una situazione paradossale l’Italia, che aveva già approvato un proprio quadro normativo.

Bruxelles rinvia AI Act al 2027 per i sistemi ad alto rischio mentre l’Italia anticipa i tempi
[In pillole] La sintesi per chi va di fretta:
La Commissione Europea ha deciso di posticipare al dicembre 2027 l'entrata in vigore delle regole per i sistemi di intelligenza artificiale ad alto rischio. La mossa giustificata dalla mancanza di standard tecnici lascia l'Italia in una posizione scomoda avendo già introdotto una legge nazionale anticipatoria che rischia ora di penalizzare le imprese locali rispetto ai competitor europei.

Una frenata di sedici mesi per ripensare le regole

La Commissione europea ha deciso di tirare il freno a mano su quella che doveva essere la sua riforma più ambiziosa e rappresentativa del decennio. Con una mossa che ha sorpreso chi si aspettava un’implementazione lineare, Bruxelles ha proposto di posticipare di 16 mesi l’entrata in vigore delle norme più severe previste dall’AI Act, spostando la scadenza per i sistemi ad “alto rischio” dall’agosto 2026 al dicembre 2027.

Non si tratta di un dettaglio burocratico.

È invece un cambiamento sostanziale nella tabella di marcia che doveva fare dell’Europa il primo continente al mondo dotato di una “costituzione” per l’intelligenza artificiale. La decisione è stata inserita all’interno del cosiddetto “Digital Omnibus”, un pacchetto di misure correttive pensato per alleggerire il carico burocratico sulle imprese, ma che molti osservatori interpretano come un segnale di debolezza politica di fronte alle pressioni del mercato.

Ufficialmente, la Commissione ha attivato una procedura tecnica nota come “stop-the-clock”, un meccanismo che ferma l’orologio dell’attuazione normativa. La motivazione formale, come spiegato da fonti istituzionali a Bruxelles, risiede nell’assenza degli standard tecnici armonizzati: si tratta, in sostanza, dei manuali di istruzioni che spiegano alle aziende come rispettare la legge.

Senza questi documenti, che devono essere redatti dagli organismi di standardizzazione europei (CEN e CENELEC), le imprese si troverebbero nella paradossale situazione di dover rispettare regole di sicurezza rigorose senza sapere esattamente quali parametri tecnici adottare.

Tuttavia, dietro questa spiegazione logistica si nasconde una realtà più complessa.

Si tratta di una realtà fatta di ritardi accumulati e di una rincorsa affannosa per non soffocare l’innovazione europea mentre Stati Uniti e Cina corrono senza troppi vincoli.

La vicepresidente esecutiva della Commissione, Henna Virkkunen, ha cercato di normalizzare la situazione sostenendo che “nel settore dell’intelligenza artificiale stanno accadendo cose, gli standard sono in ritardo e le vere sfide emergeranno il prossimo anno”, come riportato da Adnkronos.

La sua dichiarazione suggerisce che l’Europa si sia resa conto, forse tardivamente, che imporre scadenze rigide su una tecnologia che cambia di settimana in settimana rischiava di creare un cortocircuito legale.

Ma se da un lato la Commissione parla di pragmatismo, dall’altro resta il dubbio.

Il sospetto è che questo rinvio sia il risultato di un’intensa attività di lobbying da parte delle grandi multinazionali tecnologiche, che da tempo lamentano l’eccessiva rigidità dell’approccio europeo.

ECOMMERCE

Il peso delle lobby e la reazione dell’industria

Non è un mistero che l’industria tecnologica, sia quella europea che quella americana operante nel vecchio continente, abbia accolto la notizia con un sospiro di sollievo, se non addirittura con soddisfazione. Le associazioni di categoria spingevano da mesi per ottenere più tempo, sostenendo che i requisiti di conformità fossero troppo onerosi da implementare in tempi brevi. In Italia, ad esempio, Anitec-Assinform aveva esplicitamente richiesto una dilazione ancora più ampia, parlando della necessità di due anni extra per permettere alle imprese di adeguarsi a profili di compliance “senza precedenti”.

La tesi delle aziende è che, senza questo respiro, molte realtà avrebbero semplicemente smesso di sviluppare o importare sistemi avanzati in Europa, temendo sanzioni milionarie per il mancato rispetto di norme non ancora del tutto chiarite.

Questa narrazione, però, non convince tutti.

Diversi gruppi per la difesa dei diritti digitali vedono nel rinvio un pericoloso precedente, una sorta di resa della politica all’economia. Il timore è che posticipare le regole per i sistemi ad alto rischio (quelli che decidono chi assume un mutuo, chi viene assunto o come la polizia controlla le città) lasci i cittadini europei scoperti proprio nel momento in cui l’intelligenza artificiale sta diventando onnipresente. C’è chi sostiene che l’Europa stia barattando la sicurezza dei suoi cittadini per non scontentare i giganti della Silicon Valley, specialmente in un momento in cui l’amministrazione statunitense potrebbe spingere verso una deregolamentazione aggressiva.

– Leggi anche: Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Il rischio concreto è che questo “tempo extra” non venga usato per perfezionare gli standard tecnici, ma per annacquarli ulteriormente.

Se le aziende hanno 16 mesi in più per operare senza vincoli stringenti, si crea una finestra temporale in cui tecnologie potenzialmente invasive possono radicarsi nel tessuto sociale ed economico, rendendo poi molto più difficile regolarle retroattivamente nel 2027. La decisione della Commissione segnala quindi una volontà di privilegiare la competitività economica rispetto alla tutela preventiva dei diritti fondamentali, un cambio di paradigma rispetto alla retorica che aveva accompagnato il lancio dell’AI Act.

Questo cambio di rotta a Bruxelles crea però una situazione paradossale per i singoli stati membri, che nel frattempo si erano mossi per recepire le direttive o anticiparle, trovandosi ora spiazzati o, al contrario, in una posizione di avanguardia non richiesta.

L’Italia corre da sola mentre l’Europa aspetta

Mentre a Bruxelles si discute di rinvii e standard mancanti, l’Italia si trova in una situazione singolare.

Il governo ha infatti approvato la Legge n. 132/2025, entrata ufficialmente in vigore il 10 ottobre 2025, che rappresenta il primo quadro normativo nazionale pensato per accompagnare l’AI Act. Dal mese scorso le imprese italiane sono già tenute a verificare la conformità dei propri sistemi, definire una governance chiara e garantire trasparenza agli utenti.

Per ottemperare a tale obbligo di chiarezza pubblica, molte realtà si troverebbero nella condizione di dover aggiornare la propria presenza digitale, investendo nella realizzazione di siti corporate strutturati per comunicare in modo esplicito le policy di utilizzo dell’intelligenza artificiale.

L’Italia, in pratica, ha creato l’infrastruttura legale per applicare un regolamento europeo che ora l’Europa stessa ha deciso di congelare in buona parte.

Questa discrepanza temporale rischia di creare confusione.

Le aziende italiane si trovano a dover rispettare una legge nazionale che anticipa obblighi europei ora posticipati, con il rischio di svantaggi competitivi rispetto ai concorrenti di altri paesi UE che potranno godere del “periodo di grazia” concesso dalla Commissione.

La legge italiana istituisce anche investimenti per un miliardo di euro e definisce sanzioni penali per usi illeciti dell’IA, dimostrando un attivismo legislativo che ora cozza con la frenata continentale.

È la classica situazione in cui l’essere i “primi della classe” nel recepire le norme potrebbe trasformarsi in un onere burocratico solitario.

C’è poi un aspetto grottesco che emerge dalle aule parlamentari romane e che ben descrive la distanza tra la teoria della regolamentazione e la pratica quotidiana.

Mentre si scrivono leggi severe sull’uso dell’IA, deputati e senatori utilizzano massicciamente strumenti commerciali come ChatGPT e Gemini per scrivere ed analizzare gli emendamenti alla manovra finanziaria, come evidenziato dall’Osservatorio AI per la PA.

Preferiscono la velocità dei chatbot privati ai sistemi sicuri della Camera, esponendo potenzialmente dati sensibili a quelle stesse multinazionali che la legge vorrebbe imbrigliare.

È la dimostrazione plastica di come la tecnologia corra sempre più veloce della capacità delle istituzioni di gestirla, o anche solo di comprenderne le implicazioni di sicurezza basilari.

Il rinvio al 2027, dunque, non è solo una questione di date.

È il sintomo di una difficoltà strutturale dell’Unione Europea nel mantenere il passo con una rivoluzione tecnologica che non controlla, dato che i grandi player sono quasi tutti americani.

La scommessa di Bruxelles è che questi 16 mesi servano a creare regole migliori e più applicabili; il timore è che servano solo a rendere l’Europa un mercato più docile per i giganti del tech, mentre i cittadini attendono tutele che continuano a slittare nel futuro.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Meta presenta V-JEPA per dare intuizione fisica all’intelligenza artificiale

Meta ha svelato V-JEPA una nuova architettura AI ideata da Yann LeCun che apprende le leggi della fisica osservando video invece di leggere testi. Il sistema mira a superare i limiti dei chatbot attuali sviluppando un modello del mondo simile all intuizione umana aprendo la strada a robot piu autonomi e dispositivi di realta aumentata efficienti.

NANOREMOTE il malware che si nasconde dentro Google Drive

NANOREMOTE il malware che si nasconde dentro Google Drive

Un nuovo e sofisticato malware per Windows, chiamato NANOREMOTE, utilizza Google Drive per comunicare con i suoi controllori e rubare dati, mascherando il suo traffico da attività legittima. Questa backdoor, quasi invisibile ai sistemi di sicurezza, è collegata al gruppo di hacker cinesi REF7707 e viene usata in operazioni di spionaggio contro organizzazioni strategiche a livello globale.

Falla di sicurezza zero day in Google Chrome usata per attacchi informatici

Falla di sicurezza zero day in Google Chrome usata per attacchi informatici

Google ha rilasciato un aggiornamento d'emergenza per Chrome per risolvere una vulnerabilità zero-day, l'ottava del 2025. Identificata come CVE-2025-14174 e di gravità alta, la falla è già attivamente sfruttata da aggressori. Il problema, localizzato nel componente ANGLE, può permettere l'esecuzione di codice malevolo, rendendo cruciale l'aggiornamento immediato del browser per tutti gli utenti.

[Altre storie]

Flexiv lancia FMR 300 la base mobile che libera i robot dai bulloni

Flexiv lancia FMR 300 la base mobile che libera i robot dai bulloni

Flexiv ha presentato l'FMR 300, una base mobile autonoma capace di trasportare bracci robotici e carichi fino a 270 kg. La tecnologia utilizza sensori di forza invece della visione artificiale per compensare gli errori di posizionamento, permettendo lavorazioni precise in stazioni multiple. Questa soluzione mira a ottimizzare i flussi produttivi riducendo la dipendenza da macchinari fissi.

OpenAI dichiara Codice Rosso e cambia i piani per sfidare Google

Sam Altman ha dichiarato un code red in OpenAI per rispondere alla rapida ascesa di Google Gemini. L azienda ha congelato progetti secondari e pubblicità per concentrarsi sul rendere ChatGPT un assistente personale indispensabile. L obiettivo strategico è creare un abitudine di utilizzo quotidiana negli utenti e difendere la propria posizione di mercato minacciata dal rivale di Mountain View.

DeepSeek rovescia il duopolio dell’IA: efficienza batte potenza bruta

DeepSeek ha sconvolto il duopolio dell'IA con i suoi modelli V3.2 e Speciale, che eguagliano o superano GPT-5 e Gemini 3.0 Pro. L'azienda cinese dimostra che l'efficienza algoritmica, non solo la potenza bruta, è la chiave. Questo ha generato incertezza a Wall Street, mettendo in discussione i massicci investimenti infrastrutturali e aprendo nuove prospettive per l'accesso globale all'IA avanzata.

Xiaomi e i robot umanoidi: il piano quinquennale per le fabbriche del futuro

Il fondatore di Xiaomi, Lei Jun, ha annunciato l'impiego su larga scala di robot umanoidi nelle fabbriche entro i prossimi cinque anni. Questo piano ambizioso mira a trasformare la manifattura con l'intelligenza artificiale incarnata, posizionando Xiaomi all'avanguardia. Nonostante le sfide del settore robotico cinese, l'azienda scommette sulla rapida maturazione tecnologica per un futuro più automatizzato e versatile.

La corsa dell’Europa all’Intelligenza Artificiale Sovrana: una missione complicata

L'Europa sta intraprendendo una corsa strategica per sviluppare un'intelligenza artificiale sovrana, considerandola cruciale per l'autonomia economica e geopolitica. Nonostante ambiziosi investimenti in infrastrutture nazionali, il continente affronta sfide complesse come la frammentazione, la dipendenza dai semiconduttori, la fuga dei cervelli e il costo dell'energia, interrogandosi sulla vera portata di questa sovranità.

Albiriox: il Malware-as-a-Service che trasforma il crimine digitale in un abbonamento

Albiriox, un nuovo malware per Android, è emerso come servizio in abbonamento, trasformando il crimine informatico in un settore. Venduto a 650-720 dollari al mese, permette il controllo remoto dei dispositivi, aggirando le sicurezze bancarie tramite VNC e abusi dei servizi di accessibilità. Questo 'Malware-as-a-Service' (MaaS) punta a oltre 400 app finanziarie, democratizzando le frodi e rivelando la crescente sofisticazione del mercato nero digitale. La sua diffusione si basa sull'ingegneria sociale.

Gartner: gli agenti di intelligenza artificiale gestiranno il 90 per cento degli acquisti B2B entro il 2028

Secondo Gartner, entro il 2028 gli agenti di intelligenza artificiale intermediaranno il 90% degli acquisti B2B, per oltre 15 trilioni di dollari. Questa previsione delinea una trasformazione radicale del commercio aziendale, spostando il potere decisionale dagli umani agli algoritmi. Sebbene prometta efficienza, solleva interrogativi su impatto occupazionale, reale produttività e sfide regolamentari, richiedendo alle aziende un'integrazione strategica.

Agenti AI: perché Amazon Web Services sta plasmando il mercato da 50 miliardi di dollari

Amazon Web Services (AWS) sta rivoluzionando il settore degli agenti AI, investendo massicciamente e posizionando la sua piattaforma come marketplace centrale. Il mercato globale è proiettato a superare i 50 miliardi di dollari entro il 2030, con AWS che mira a plasmarne l'adozione. Questi sistemi autonomi gestiscono compiti complessi, ma la loro rapida diffusione solleva interrogativi etici e di controllo.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP