dariodeleonardis.me

Che impatto sta avendo l’intelligenza artificiale nel mondo della programmazione?

In questo articolo

 


 

Guarda, chiunque lavori oggi nello sviluppo software se n’è accorto: qualcosa di grosso è cambiato. Fino a poco tempo fa, gli strumenti di intelligenza artificiale per la programmazione erano poco più di una curiosità, un completamento automatico del codice un po’ più furbo del solito. Oggi, invece, siamo di fronte a un vero e proprio cambio di paradigma. Questi strumenti sono diventati dei partner quasi autonomi, una sorta di “stagista coscienzioso”: sempre disponibile, entusiasta, ma che richiede una supervisione attenta per non fare disastri.

Non si tratta più di semplice assistenza. Ormai agli agenti IA si delegano interi compiti: correggere un bug, scrivere piccole utility, analizzare porzioni di codice. E questo, checché se ne dica, non è solo fuffa legata all’hype del momento, ma un cambiamento concreto e irreversibile nel modo in cui si lavora. Ma come sempre, quando si parla di IA, la medaglia ha due facce. Da un lato c’è la promessa di un’efficienza mai vista, dall’altro l’ombra di nuovi rischi e di una potenziale svalutazione del lavoro umano. Insomma, la domanda è: chi sta davvero beneficiando di questa rivoluzione?

Il nuovo collega: l’IA come “stagista” e il paradosso della produttività

Sulla carta, i vantaggi sembrano enormi. Ricerche come quelle di McKinsey indicano che gli sviluppatori possono completare i loro compiti fino a due volte più velocemente grazie all’IA generativa. E chi la usa tutti i giorni conferma: per compiti ripetitivi e di routine, l’accelerazione è pazzesca. Si automatizza la noia, liberando tempo per problemi più complessi e creativi.

Eppure, c’è qualcosa che non torna. Se chiedi ai manager e ai leader dei team di sviluppo, il quadro cambia drasticamente. Un sondaggio di LeadDev ha rivelato che solo il 6% dei dirigenti ha riscontrato un aumento significativo della produttività, mentre un ben più nutrito 39% ha visto solo guadagni marginali. Com’è possibile? Semplice: l’IA è bravissima ad accelerare il “tempo sulla tastiera”, cioè la scrittura materiale del codice, ma ha un impatto quasi nullo sui veri colli di bottiglia dello sviluppo software. Parliamo delle pipeline di test che durano ore, dei processi di rilascio complessi, della comunicazione e dell’allineamento tra i team. In pratica, l’IA ti fa correre più veloce per poi farti sbattere contro lo stesso muro di sempre.

Questa situazione evidenzia una disconnessione preoccupante. I vertici aziendali, spinti dall’entusiasmo dei fornitori, comprano licenze di IA senza una vera strategia, aspettandosi miracoli di produttività che poi, nei fatti, non si materializzano a livello di sistema.

Qualità a rischio: il debito tecnico indotto dall’IA

L’accelerazione, poi, ha un costo nascosto: la qualità. Il rischio è quello di cadere nel cosiddetto “vibe coding”: generare codice che sembra funzionare, che ha l’aria giusta, ma che in realtà è fragile, mal documentato e difficile da mantenere. L’IA può diventare uno specchio che amplifica le tue debolezze: se hai una comprensione superficiale di un problema, l’assistente IA ti fornirà suggerimenti plausibili ma errati, facendoti perdere ore a girare in tondo.

I dati lo confermano in modo allarmante. Uno studio del 2025 di GitClear, basato sull’analisi di 153 milioni di righe di codice, ha mostrato che il “code churn” — cioè la percentuale di codice che viene riscritta o buttata via poco dopo essere stata creata — è destinato a raddoppiare con l’uso dell’IA. Questo suggerisce che si scrive la prima bozza molto più in fretta, ma questa bozza è spesso di qualità così bassa da richiedere un lavoro enorme di riscrittura. Lo stesso studio ha notato un’impennata del codice “copia-incollato”, tipico di chi non integra il proprio lavoro in modo ponderato nel progetto esistente. È come avere un consulente a breve termine che fa il suo pezzetto e se ne va, lasciando a te il casino da gestire.

Tutto questo ha un nome: debito tecnico indotto dall’IA. Come ha detto un professore del MIT, è come una “nuova carta di credito che ci permetterà di accumulare debito tecnico in modi mai visti prima”. Si ottiene velocità oggi, ma si pagheranno interessi altissimi domani in termini di manutenzione e bug. Un classico schema dove il valore viene estratto subito, scaricando i costi sul futuro.

L’evoluzione dei ruoli: chi vince e chi perde?

Questo cambio di paradigma sta, inevitabilmente, ridisegnando le carriere. E, come in ogni rivoluzione, ci sono vincitori e vinti.

Per gli ingegneri senior e gli architetti, l’IA è un potente moltiplicatore di forza. Automatizzando le parti noiose del lavoro, li libera per concentrarsi su ciò che conta davvero: l’architettura dei sistemi, la logica di business complessa, l’ottimizzazione delle performance. Il loro ruolo si eleva: da costruttori diventano curatori di ecosistemi intelligenti. Qui la ricchezza di competenze e di valore si concentra verso l’alto.

Il vero problema, e il cuore della critica sociale a questa tecnologia, riguarda gli sviluppatori junior. L’automazione dei compiti semplici, che tradizionalmente erano il pane quotidiano per chi iniziava una carriera, sta erodendo la base della piramide. Le offerte di lavoro per posizioni junior stanno calando drasticamente, mentre aumentano quelle per figure con molti anni di esperienza. La classica “gavetta”, il percorso per acquisire competenze fondamentali, si sta restringendo.

La minaccia non è tanto la sostituzione, quanto la creazione di una generazione di sviluppatori con una falsa fiducia e una conoscenza superficiale. Un junior oggi può generare codice funzionante senza capirne i principi, i casi limite, i compromessi. Diventa dipendente da uno strumento che non controlla, perdendo la capacità di ragionare in modo critico quando l’IA fallisce. Il suo valore non è più scrivere codice, ma usare l’IA per fare le domande giuste. Questo, di fatto, svaluta le competenze di base, sfruttandole attraverso l’automazione e concentrando il potere e il valore nelle mani di chi progetta questi strumenti e di chi ha l’esperienza per supervisionarli.

I rischi sistemici: sicurezza, copyright e il dilemma dell’open source

L’adozione massiccia di questi strumenti porta con sé una nuova classe di rischi che vanno ben oltre il singolo bug.

  • Sicurezza: I modelli IA sono addestrati su enormi quantità di codice pubblico, e possono quindi imparare e riprodurre modelli di programmazione insicuri. Studi hanno mostrato come il 40% del codice per interrogare database generato da IA fosse vulnerabile a SQL injection. Inoltre, emergono nuove minacce come il “prompt injection”, dove un malintenzionato può ingannare l’IA per farle eseguire comandi dannosi. Non a caso, la OWASP Top 10 per gli LLM include proprio questi nuovi rischi.
  • Copyright e responsabilità: Qui entriamo in un vuoto legale. Negli Stati Uniti, per esempio, il codice generato interamente da una macchina non è protetto da copyright. Questo significa che un’azienda potrebbe costruire una parte fondamentale del suo prodotto con l’IA e scoprire di non possederne legalmente i diritti. Allo stesso tempo, se quel codice causa un danno (es. una violazione della privacy), la responsabilità ricade interamente sull’azienda, non sul fornitore dell’IA. Un trasferimento di rischio tanto comodo quanto pericoloso.
  • Il dilemma dell’Open Source: L’IA è un gigante che si poggia sulle spalle dell’open source. I modelli sono addestrati su miliardi di righe di codice creato e condiviso gratuitamente da una comunità globale. Il problema è che questo scambio sembra essere a senso unico. Mentre le grandi aziende tecnologiche usano questo patrimonio per creare prodotti commerciali miliardari, la comunità open source riceve in cambio ben poco, se non un’ondata di contributi di bassa qualità generati dall’IA (il cosiddetto “AI slop”) che fanno solo perdere tempo ai manutentori dei progetti. C’è il rischio concreto che questa dinamica parassitaria mini alla base lo spirito collaborativo che ha reso possibile la stessa IA.

Il futuro è conversazione: verso l’ingegneria del software 3.0

Cosa ci aspetta, allora? La traiettoria sembra puntare verso quella che viene definita “Ingegneria del Software 3.0”. Se oggi siamo nella fase 2.0 (l’IA come assistente), il futuro vedrà una partnership ancora più profonda. Lo sviluppo diventerà un dialogo, una conversazione in cui l’umano specifica l’intento di alto livello e l’IA si occupa di tutto il resto: architettura, codice, test, rilascio.

Liberati dalla meccanica della scrittura del codice, gli ingegneri potranno concentrarsi sugli aspetti più strategici e creativi. Sembra fantastico, ma anche qui la critica è d’obbligo. Chi definirà le regole di questa conversazione? Chi controllerà questi potentissimi partner IA? Il rischio è un’ulteriore astrazione e concentrazione del potere, dove lo sviluppatore diventa un semplice “specificatore di intenti” per una scatola nera di proprietà di poche, gigantesche corporation tecnologiche.

Insomma, il baratro è stato attraversato e non si torna indietro. L’IA sta amplificando le capacità umane, ma sta anche amplificando le disuguaglianze e introducendo rischi sistemici. Il futuro non apparterrà a chi ignora questo cambiamento, ma al “Coder Aumentato”: un professionista capace di usare questi strumenti con maestria, ma anche con uno sguardo critico e la consapevolezza che la vera sfida non è tecnologica, ma etica e sociale.