dariodeleonardis.me

L’IA ora scrive i malware da sola: la nuova frontiera del cybercrime

Bene, ci mancava solo questa. Mentre siamo tutti impegnati a discutere se l’intelligenza artificiale ruberà il lavoro ai creativi o ai collaudatori di software, c’è chi l’ha già messa all’opera per scopi, diciamo, meno nobili. I ricercatori del Threat Intelligence Group (GTIG) di Google—sì, proprio Google—hanno lanciato l’allarme: è stato scoperto un nuovo tipo di malware che usa i modelli linguistici (LLM) per riscrivere il proprio codice in tempo reale.

In pratica, un virus che fa la muta per rendersi invisibile. Questa non è solo un’evoluzione tecnica, è un salto quantico che sposta l’intero paradigma della cybersicurezza in un territorio molto più instabile.

In questo articolo

 


 

PROMPTFLUX: il malware che impara a nascondersi

Il malware, identificato con il nome inquietante di PROMPTFLUX, rappresenta un salto di qualità notevole. Non è un virus statico, con un codice fisso che i software antivirus possono imparare a riconoscere e bloccare. No, questo è molto più subdolo.

Come spiega il team di Google, PROMPTFLUX è in grado di “generare dinamicamente script malevoli, offuscare il proprio codice per eludere il rilevamento e sfruttare i modelli IA per creare funzioni dannose su richiesta, piuttosto che averle codificate al suo interno”.

Tradotto dal gergo tecnico: invece di portarsi dietro l’arma del delitto, questo malware si porta dietro una stampante 3D (l’IA) e le istruzioni per stamparla solo nel momento in cui serve. È un approccio “just-in-time” al crimine informatico, che rende i sistemi di difesa tradizionali, basati sul riconoscimento di “firme” di codice già note, quasi inutili. È come cercare di catturare qualcuno che cambia faccia e impronte digitali ogni singolo secondo.

Il paradosso: l’IA di Google usata per l’attacco

E qui la faccenda si fa quasi comica, se non fosse terribilmente seria. Questo Trojan (perché di questo si tratta) è stato progettato per interagire con le API di Gemini, il modello di intelligenza artificiale di Google.

Avete letto bene. Il malware usa l’infrastruttura e l’intelligenza di Google per imparare come modificarsi, come offuscarsi e, in ultima analisi, come eludere i sistemi di sicurezza. Il report di Google cerca di gettare acqua sul fuoco, spiegando che, per fortuna, il malware sembra essere ancora in fase di sviluppo o test. Ha funzioni incomplete e un meccanismo per limitare le chiamate alle API (probabilmente per non farsi scoprire, o per non pagare un conto salato a Google).

Google ha dichiarato di aver “intrapreso azioni per disabilitare gli asset associati a questa attività”. Ma il vaso di Pandora, ormai, è aperto. La tecnologia è là fuori.

Democratizzare il crimine: il vero rischio sociale

Il punto, però, non è solo tecnico. È sociale ed economico. Google avverte che questa nuova capacità alimenta un “mercato nero di strumenti IA illeciti” in rapida maturazione. E questo cosa significa? Significa abbassare la barriera d’ingresso per “attori meno sofisticati”.

È la stessa identica, preoccupante dinamica che stiamo vedendo nel mondo del lavoro. L’IA non sostituisce (ancora) l’umano esperto, ma permette a chiunque di produrre *qualcosa*—che sia un articolo, un’immagine, una linea di codice o, in questo caso, un malware—senza averne la competenza profonda.

Si “democratizza” la capacità di fare danni enormi, concentrando però il potere e il profitto (derivante dalla vendita delle API) nelle mani delle pochissime aziende che possiedono i modelli. E non si tratta solo di “attori motivati finanziariamente”. Google stessa ammette candidamente che “attori sponsorizzati da stati come Corea del Nord, Iran e Repubblica Popolare Cinese” stanno già usando l’IA per potenziare le loro operazioni.

La corsa agli armamenti è già iniziata (e la vince l’IA)

Naturalmente, la risposta a questa minaccia qual è? Più intelligenza artificiale, ovvio. È il modello di business perfetto.

Google, nello stesso report in cui lancia l’allarme, non perde occasione per promuovere il suo nuovo agente IA, soprannominato Big Sleep, progettato (guarda caso) per usare l’IA per *identificare* le vulnerabilità nella programmazione.

Benvenuti nella nuova corsa agli armamenti. L’IA viene usata per creare il malware, e un’altra IA viene venduta per combatterlo. È un ciclo che si autoalimenta, crea il problema e vende la soluzione, garantendo profitti miliardari e una centralizzazione del potere tecnologico sempre più spaventosa. La cybersicurezza è appena diventata molto, molto più complicata.