In questo articolo
Il mondo della tecnologia, si sa, è una fucina inesauribile di termini nuovi e, spesso, di promesse un po’ troppo ambiziose. L’ultima moda in questo contesto è il “vibe coding”, una pratica che vede i non-programmatori usare l’intelligenza artificiale per scrivere codice attraverso il linguaggio naturale. Un’idea affascinante, in teoria, ma che nella pratica sembra stia generando più grattacapi che soluzioni, soprattutto per gli ingegneri veri. Il caso di Klarna, la piattaforma “acquista ora, paga dopo” appena quotata in borsa, è emblematico di questo fenomeno, e ci offre uno spaccato interessante su come l’AI stia ridefinendo, forse non sempre per il meglio, le dinamiche lavorative e le gerarchie aziendali.
Il CEO di Klarna e l’illusione del “vibe coding”
Sebastian Siemiatkowski, CEO di Klarna, è un grande sostenitore dell’intelligenza artificiale. Famose sono le sue affermazioni, come quella dell’anno scorso, secondo cui l’AI svolgerebbe il lavoro di “700 agenti a tempo pieno”. Una dichiarazione che, a dire il vero, ha fatto storcere il naso a molti, soprattutto considerando che, qualche mese dopo, l’azienda ha dovuto fare marcia indietro, riconoscendo il ruolo insostituibile del personale umano.
Nonostante questo, l’ossessione di Siemiatkowski per l’AI non è diminuita. In un’intervista recente al podcast Sourcery, ha raccontato di essersi trasformato da “uomo d’affari” a sviluppatore dilettante grazie al “vibe coding”. Sostiene di poter creare prototipi in soli 20 minuti, risparmiando ai suoi ingegneri il disturbo di idee “mezze buone e mezze cattive”. “Vado a dire: ‘Guarda, ho effettivamente fatto funzionare questo, funziona così, cosa ne pensi, potremmo farlo in questo modo?'”, ha spiegato. Il quadro che emerge, diciamocelo, è quello di un entusiasmo quasi acritico verso l’AI, dove l’efficienza presunta di un algoritmo rischia di offuscare la complessità del lavoro di sviluppo.
Il costo nascosto dell’automazione: bug, sicurezza e perdita di competenze
Ma se il CEO è “entusiasta” del suo nuovo hobby, è legittimo chiedersi se lo siano altrettanto gli ingegneri di Klarna. È facile immaginare i loro occhi roteare all’indietro di fronte a codice “assemblato frettolosamente”. Non è un caso isolato, eh. Anche Sundar Pichai, CEO di Google, ha ammesso di “smanettare” con gli assistenti di coding AI per creare pagine web personalizzate, esprimendo grande eccitazione.
Tuttavia, la pratica del “vibe coding” sta già diventando una spina nel fianco per chi deve poi mettere mano al codice risultante. I freelance scherzano sul fatto di essere diventati “specialisti della pulizia del codice ‘vibe-coded'”, incassando assegni per rimediare ai pasticci algoritmici. Un esito ironico per una tecnologia nata per ridurre il carico di lavoro degli sviluppatori, e che invece sembra creare nuove nicchie professionali, ma non esattamente quelle che ci aspetteremmo, insomma. Un rapporto di Fastly ha rivelato che almeno il 95% degli sviluppatori intervistati deve dedicare tempo extra per correggere il codice generato dall’AI.
Le preoccupazioni non finiscono qui. I ricercatori di sicurezza informatica hanno scoperto gravi vulnerabilità nei prodotti del “vibe coding”. Un esempio su tutti: Lovable, un’app che permette di creare siti e app con il linguaggio naturale, è stata trovata con oltre 100 applicazioni facilmente vulnerabili agli hacker. Questo, come abbiamo già sottolineato nel nostro manuale sull’etica del giornalismo e l’AI, è un rischio enorme: l’AI può perpetuare o addirittura amplificare i bias e le vulnerabilità esistenti, con conseguenze potenzialmente disastrose.
Ma c’è di più. Gli esperti avvertono che l’eccessiva dipendenza dall’AI potrebbe portare gli sviluppatori a perdere la capacità di comprendere il codice che producono. Il che, nel lungo periodo, renderebbe ancora più difficile individuare e correggere gli errori. Come ha detto Daniel Jackson, informatico del MIT, a Wired, potrebbe essere “un disastro imminente”, non solo per la quantità di codice “rotto” e pieno di vulnerabilità, ma anche per la nascita di una nuova generazione di programmatori incapaci di gestirle.
Un segnale d’allarme per il futuro del lavoro e dell’etica nell’era AI
Questo fenomeno ci pone di fronte a interrogativi cruciali sul futuro del lavoro e sull’etica dello sviluppo dell’intelligenza artificiale. La promessa di un’AI che automatizza compiti ripetitivi per liberare i lavoratori umani a lavori di maggior valore è, al momento, spesso vanificata dalla realtà dei “pasticci” che genera. Non è solo una questione di efficienza, ma di impatto sociale: la delegazione acritica di compiti complessi all’AI rischia di concentrare ancora di più il potere e la ricchezza verso l’alto, sfruttando competenze dal basso per poi dequalificarle o eliminarle.
Il “vibe coding”, al di là del suo nome accattivante, è un esempio di come l’AI possa diventare uno strumento per esacerbare le disuguaglianze e per indebolire le competenze umane. La trasparenza sull’uso dell’AI, la verifica dei dati generati e la consapevolezza che l’AI non può sostituire il giudizio critico e l’empatia umana sono principi fondamentali che, come giornalisti progressisti, dobbiamo continuare a difendere con forza.
Nonostante tutto, il “vibe coding” sembra destinato a restare, almeno per ora, con i dirigenti tecnologici che continuano a lodarlo come un modo per risparmiare tempo. Che agli ingegneri, poi, piaccia o meno dover fare le pulizie dopo la festa algoritmica, questo è un altro discorso, e un’altra battaglia che ci aspetta.

