Il 90 per cento degli sviluppatori la integra ormai regolarmente nel proprio lavoro, ma un ampio divario di fiducia persiste, con quasi la metà che dubita della sua accuratezza e ne ridimensiona l’entusiasmo iniziale.

[In pillole] La sintesi per chi va di fretta:
L'intelligenza artificiale è ormai uno strumento quotidiano per il 90% degli sviluppatori software, con chiari benefici di produttività. Tuttavia, studi di Google Cloud e Stack Overflow rivelano un calo di fiducia nell'accuratezza degli strumenti AI. La dipendenza cresce, sollevando dubbi su qualità del codice, crescita professionale dei junior e l'amplificazione dei problemi organizzativi esistenti. Il successo dipenderà dalla maturità organizzativa.
L’intelligenza artificiale è ovunque nel software, ma non tutti si fidano
L’intelligenza artificiale non è più una tecnologia sperimentale o un vantaggio per pochi, ma è diventata uno strumento di lavoro quotidiano per la quasi totalità di chi scrive software. Un nuovo e approfondito studio condotto da Google Cloud ha rivelato che il 90 per cento degli sviluppatori utilizza ormai regolarmente strumenti basati su intelligenza artificiale, un aumento di 14 punti percentuali rispetto all’anno precedente.
Il dato non descrive semplicemente un aumento nell’adozione di una nuova tecnologia, ma segnala un cambiamento profondo e probabilmente irreversibile nel modo in cui il software viene ideato, scritto e mantenuto. Questa trasformazione, avvenuta con una rapidità senza precedenti, non è però priva di complessità e contraddizioni, sollevando interrogativi significativi sulla qualità del lavoro, sull’affidabilità degli strumenti e sulle dinamiche interne delle aziende.
La ricerca, intitolata “State of AI-assisted Software Development”, fa parte del più ampio rapporto annuale DORA (DevOps Research and Assessment), un’analisi molto rispettata nel settore che da anni misura l’efficienza dei team di sviluppo software.
L’indagine di quest’anno ha coinvolto quasi 5.000 professionisti della tecnologia in tutto il mondo, fornendo un quadro dettagliato di una rivoluzione in pieno svolgimento. I dati mostrano che gli sviluppatori non si limitano a usare l’intelligenza artificiale in modo sporadico: la stanno integrando profondamente nelle loro attività, dedicandole in media due ore al giorno.
L’aspetto più sorprendente, però, non è tanto il tempo speso, quanto il livello di dipendenza che si è venuto a creare in un lasso di tempo molto breve.
Una trasformazione silenziosa ma capillare
Il rapporto di Google evidenzia come il 65 per cento degli sviluppatori intervistati si definisca “fortemente dipendente” dall’intelligenza artificiale per portare a termine i propri compiti, mentre un ulteriore 37 per cento dichiara una dipendenza “moderata”.
Messa in un altro modo, appena il 5 per cento dei professionisti afferma di non fare alcun affidamento su questi strumenti.
L’intelligenza artificiale sembra aver permeato ogni fase del ciclo di vita del software: il suo utilizzo più comune, citato dal 71 per cento dei partecipanti, è la scrittura di nuovo codice. Seguono a breve distanza la modifica di codice esistente (66 per cento), la stesura di documentazione tecnica (64 per cento) e la creazione di test automatici, insieme alla richiesta di spiegazioni su concetti complessi (62 per cento).
Questi dati trovano un’importante conferma in un’altra indagine di riferimento per il settore, la Developer Survey 2025 di Stack Overflow, una delle più grandi comunità online per programmatori. Secondo la loro ricerca, l’84 per cento degli sviluppatori sta già utilizzando o ha in programma di utilizzare strumenti di intelligenza artificiale, in crescita rispetto al 76 per cento dell’anno precedente. In questo caso, il 51 per cento dei professionisti dichiara di farne un uso quotidiano.
– Leggi anche: Meta scommette sugli occhiali intelligenti per sostituire lo smartphone con Neural Band e realtà aumentata
La convergenza di queste due importanti analisi suggerisce che il fenomeno è ormai sistemico e non più confinato a gruppi di innovatori o a specifiche nicchie tecnologiche.
Stiamo assistendo a un’adozione di massa, talmente rapida da superare quella di altre innovazioni storiche nel settore, come gli ambienti di sviluppo integrato (IDE) o i sistemi di controllo versione come Git.
Ma se quasi tutti usano questi strumenti, quali sono i risultati concreti che ottengono?
I benefici della produttività e il problema della fiducia
La ragione principale dietro questa adozione così diffusa sembra essere legata a un tangibile aumento dell’efficienza. Oltre l’80 per cento degli sviluppatori intervistati da Google ha dichiarato che lo sviluppo dell’intelligenza artificiale ha migliorato la propria produttività, e il 59 per cento ha notato un impatto positivo anche sulla qualità del codice prodotto.
Questi strumenti permettono di automatizzare compiti ripetitivi, di generare rapidamente porzioni di codice standard e di ottenere suggerimenti in tempo reale, consentendo ai programmatori di concentrarsi su problemi più complessi e strategici.
L’entusiasmo per questi benefici, tuttavia, non racconta tutta la storia. Dietro l’apparente consenso si nasconde infatti un rapporto molto più ambivalente e problematico con la tecnologia.
La stessa indagine di Stack Overflow che conferma l’ampia adozione rivela un significativo divario di fiducia: il 46 per cento degli sviluppatori non si fida dell’accuratezza degli strumenti di intelligenza artificiale, una percentuale superiore a quella di chi invece si fida (33 per cento). Solo un risicato 3 per cento dichiara di avere “massima fiducia” nei risultati prodotti.
La cautela è ancora più marcata tra i programmatori più esperti, dove la percentuale di chi nutre “massima sfiducia” sale al 20 per cento. Di pari passo, anche l’entusiasmo generale sembra raffreddarsi: se nel 2023 e 2024 il 70 per cento degli sviluppatori esprimeva un parere favorevole verso questi strumenti, nel 2025 la percentuale è scesa al 60 per cento.
Sembra quasi che più gli sviluppatori usano l’intelligenza artificiale, più diventano consapevoli dei limiti e delle imprecisioni. Di fronte a questi dati, le dichiarazioni delle grandi aziende tecnologiche che promuovono questi strumenti assumono una luce diversa.
Ryan Salva, direttore del product management di Google, ha commentato i risultati sottolineando che “per realizzare il pieno potenziale dell’IA non basta l’adozione”, ma è necessario che “le organizzazioni evolvano la loro cultura, i processi e i sistemi”. Un’affermazione che, pur essendo ragionevole, sposta l’onere del corretto funzionamento dalle imperfezioni dello strumento all’inadeguatezza dell’organizzazione che lo utilizza.
Ma è davvero così?
Lo specchio che amplifica i problemi esistenti
Il rapporto DORA introduce un concetto interessante per descrivere l’impatto dell’intelligenza artificiale a livello aziendale: quello di specchio e moltiplicatore. Secondo i ricercatori di Google, l’IA non risolve magicamente i problemi organizzativi, ma al contrario li riflette e spesso li amplifica.
Le aziende che partono da una base solida, con processi di sviluppo ben definiti, sistemi di controllo qualità rigorosi e una buona cultura di collaborazione, vedono i benefici dell’IA moltiplicarsi. Al contrario, le organizzazioni con flussi di lavoro caotici, debito tecnico accumulato e scarsa automazione non solo non traggono vantaggio dall’introduzione dell’IA, ma rischiano di peggiorare la loro situazione, generando più rapidamente codice di bassa qualità.
Questa dinamica sta creando nuove preoccupazioni per i manager del settore tecnologico: quasi un dirigente su tre, come descritto da CIO Dive, vede come rischio principale una dipendenza eccessiva dall’IA senza adeguati meccanismi di controllo e responsabilità.
Una preoccupazione particolarmente sentita riguarda la crescita professionale delle figure più giovani. Se un programmatore junior si affida costantemente all’intelligenza artificiale per risolvere problemi, rischia di non sviluppare mai le competenze fondamentali e la capacità di ragionamento critico necessarie per diventare un professionista esperto.
La questione non è marginale e si lega a un contesto più ampio, dove l’adozione dell’IA sta diventando una priorità a livello globale.
La conclusione che emerge dai dati è che il successo non dipenderà semplicemente dall’adottare l’ultimo strumento di intelligenza artificiale disponibile, ma dalla capacità di costruire un’organizzazione matura, dotata di processi strutturati e sistemi integrati come un ERP (Enterprise Resource Planninng), in grado di gestirne la potenza e mitigarne i rischi.
Il 2025 potrebbe essere ricordato come l’anno in cui l’intelligenza artificiale è diventata la normalità nello sviluppo software, ma anche l’anno in cui è diventato chiaro che la tecnologia, da sola, non basta.



