dariodeleonardis.me

Intelligenza artificiale: dove funziona davvero e dove no

Guarda, l’Intelligenza Artificiale, a giugno del 2025, non è più quella roba che sognavamo nei film di fantascienza, non è solo una promessa futuristica, un miraggio tecnologico. No, è diventata una forza vera e propria, pervasiva, che si è radicata nel tessuto della nostra società. Le sue capacità, diciamocelo, continuano a correre a un ritmo che sfida qualsiasi previsione, superando costantemente anche i benchmark più tosti, quelli pensati proprio per spingerla al limite. Questo non è più roba da laboratori segreti; si manifesta nella vita di tutti i giorni: dai dispositivi medici sempre più sofisticati che le agenzie regolatorie approvano a raffica, ai veicoli autonomi che ormai vedi per strada quasi fossero comuni taxi.

Questa integrazione così capillare è alimentata da un fiume di investimenti privati che, nel solo 2024, negli Stati Uniti hanno toccato quota 109,1 miliardi di dollari. E poi c’è l’adozione aziendale, che è diventata la norma, non più l’eccezione: pensa che il 78% delle organizzazioni dichiara di usare l’IA.

Insomma, il punto non è se l’IA sia qui, ma come la stiamo usando e, soprattutto, come dovremmo usarla. Perché, vedi, la traiettoria dell’Intelligenza Artificiale non è un destino tecnologico già scritto. È uno strumento di una potenza pazzesca, certo, ma il suo impiego per il bene comune o per scopi deleteri dipende totalmente dalle nostre scelte, dalle regole che ci diamo, dai valori che decidiamo di infonderle. La distinzione cruciale tra “per cosa usarla” e “per cosa no” non è, quindi, una questione meramente tecnica, capiamoci, ma una bella, profonda, interrogazione etica, politica e sociale che ci chiama tutti in causa. E qui, da giornalista, è il punto su cui voglio buttare giù qualche riga.

In questo articolo

 


 

L’accelerazione della produttività e dell’innovazione

Nel 2025, l’Intelligenza Artificiale è diventata un pilastro irrinunciabile per l’economia globale. È un vero motore di innovazione che tocca ogni settore industriale, e l’entusiasmo per il suo potenziale si è tradotto in una valanga di investimenti. Parliamo di cifre astronomiche: solo gli Stati Uniti hanno investito 109,1 miliardi di dollari nel 2024, una cifra dodici volte superiore a quella della Cina e ventiquattro volte quella del Regno Unito. L’IA generativa, in particolare, ha fatto la parte del leone, attirando 33,9 miliardi di dollari di investimenti globali, con un aumento del 18,7% rispetto all’anno precedente.

Dietro questo fervore finanziario c’è un’adozione aziendale che è letteralmente esplosa: il 78% delle organizzazioni mondiali la usa attivamente. La ragione? Promesse (sempre più confermate) di massicci guadagni di produttività, tagli ai costi grazie all’automazione di compiti ripetitivi e la capacità di aprire nuovi cicli di innovazione.

L’IA agentica e i modelli d’azione: il “co-pilota operativo”

La tendenza tecnologica più significativa del 2025 è il passaggio da un’IA passiva a una che agisce come un agente proattivo e autonomo, la cosiddetta “Agentic AI”. Questi sistemi sono capaci di capire un obiettivo, scomporlo, pianificare e agire autonomamente nel digitale, gestendo compiti complessi con minima o assente guida umana. Concetti come i Large Action Models (LAM), pensa a Gemini 2.0 di Google o al progetto “Computer Use” di Anthropic, stanno concretizzando questa visione. Non si limitano a interpretare contenuti, ma possono agire direttamente su interfacce utente e sistemi aziendali. Per capirci, un’IA può ricevere una richiesta vocale per analizzare dati di vendita, aprire un foglio di calcolo, compilare un report, creare una presentazione e inviarla via email. Un vero e proprio “co-pilota operativo” che affianca e potenzia il lavoratore umano.

Casi d’uso concreti e l’ostacolo del ROI

Al di là dell’hype, nel 2025 ci sono tantissimi casi d’uso che danno un valore tangibile alle aziende. L’idea della sostituzione massiva di interi team è andata a sbattere contro la realtà: l’IA oggi aumenta e potenzia il lavoro umano, non lo rimpiazza completamente. Qualche esempio concreto? Lo sviluppo software assistito, con strumenti come GitHub Copilot che velocizzano la scrittura del codice e identificano vulnerabilità. La manutenzione predittiva, dove l’IA analizza i dati dei sensori per prevedere guasti imminenti su macchinari e veicoli, minimizzando i tempi di inattività. Il supporto clienti intelligente e l’iper-personalizzazione, con chatbot che gestiscono le richieste di primo livello e l’IA che analizza il comportamento degli utenti per campagne di marketing su misura. E poi la gestione della conoscenza aziendale, con piattaforme come Guru che rendono accessibili enormi quantità di informazioni non strutturate, trasformandole in una “fonte di verità” centralizzata e ricercabile. Secondo la conferenza Reuters, l’IA può anche analizzare vasti set di dati, aprendo nuove frontiere nel giornalismo investigativo e di dati, e supportare l’analisi di grandi volumi di interviste.

Però, c’è un rovescio della medaglia: il ritorno sull’investimento (ROI). Nonostante i miliardi spesi e l’adozione diffusa, i benefici economici tangibili per molte aziende sono ancora limitati. Uno studio dice che solo il 10% ha visto riduzioni di costi significative e meno del 5% una crescita diretta dei ricavi attribuibile all’IA. Questo non è un fallimento dell’IA, ma rivela un “divario di maturità”. Molte organizzazioni hanno superato la fase di sperimentazione, ma ora si scontrano con le sfide dell’integrazione profonda. Il successo non viene dall’acquisto dell’IA, ma dalla capacità di allinearla agli obiettivi di business, avere dati di alta qualità e ridisegnare i processi interni. La sfida principale nel 2025 non è più tecnologica, ma organizzativa, culturale e strategica.

Modelli piccoli e specializzati: l’alternativa sostenibile

Accanto alla corsa ai modelli di frontiera giganteschi e costosi, sta emergendo una controtendenza pratica: l’adozione di modelli di IA più piccoli, specializzati e focalizzati su domini verticali. Addestrare modelli colossali comporta costi computazionali e ambientali insostenibili (migliaia di tonnellate di CO₂ per un singolo ciclo di addestramento). Molte aziende stanno capendo che non serve sempre un “cannone per uccidere una mosca”. Un modello più piccolo, addestrato su dati specifici di un settore – tipo giurisprudenza, diagnostica medica o finanza – può spesso superare un modello generalista in quel dominio, offrendo vantaggi enormi in termini di costi, velocità, controllo e interpretabilità. Questo trend non solo rende l’IA più praticabile e sostenibile, ma apre nuove opportunità di mercato per chi sviluppa soluzioni mirate. Il futuro dell’IA sarà un ecosistema variegato, con un’interazione dinamica tra potenti modelli generalisti e una vasta gamma di specialistici.

Il potenziamento dell’umano: salute, scienza e conoscenza

L’impatto più profondo e benefico dell’Intelligenza Artificiale si vede proprio dove la complessità dei dati e la velocità richiesta per l’analisi superano le nostre capacità umane. In settori come la sanità, la ricerca scientifica e l’istruzione, l’IA non sta sostituendo l’esperto umano, ma lo sta potenziando, fornendogli strumenti che cambiano radicalmente il modo in cui diagnostichiamo, scopriamo e apprendiamo.

Sanità: dalla medicina reattiva a quella predittiva

La sanità sta vivendo una rivoluzione silenziosa guidata dall’IA, che sta spostando il paradigma da una medicina reattiva a un approccio proattivo, predittivo e profondamente personalizzato.

  • Diagnostica potenziata e precoce: L’IA è maturata nell’analisi delle immagini diagnostiche. Algoritmi di deep learning identificano anomalie come tumori o segni precoci di malattie cardiovascolari con velocità e accuratezza che eguagliano o superano gli specialisti umani. Questo non sostituisce il radiologo, ma funge da “secondo paio di occhi” instancabile, riducendo gli errori e accelerando le diagnosi. Il numero di dispositivi medici IA approvati dalla FDA è passato da 6 nel 2015 a 223 nel 2023, segno di una transizione definitiva alla pratica clinica.
  • Medicina personalizzata e di precisione: L’IA sta rendendo la medicina personalizzata una realtà tangibile. Analizzando dati genomici, clinici e di stile di vita, i modelli supportano i medici nella definizione di percorsi di cura su misura, specialmente in oncologia, prevedendo la risposta a terapie e ottimizzando i dosaggi.
  • Sanità digitale e di prossimità: La telemedicina è consolidata e si è evoluta in un sistema integrato. Il vero cambiamento arriva dai dispositivi indossabili (wearable). Smartwatch e sensori monitorano costantemente parametri vitali, trasmettendo dati in tempo reale a piattaforme IA che rilevano anomalie e allertano medici e pazienti. Questo monitoraggio continuo è rivoluzionario per la gestione delle patologie croniche, spostando l’assistenza dall’ospedale al domicilio del paziente.

Scienza: accelerare le scoperte

Parallelamente alla sanità, l’IA sta accelerando la scoperta scientifica, permettendo ai ricercatori di affrontare problemi di una scala prima inimmaginabile.

  • Rivoluzione nella scoperta di farmaci (Drug Discovery): L’IA sta trasformando il processo di sviluppo di nuovi farmaci, tradizionalmente lungo e costoso. Modelli di IA analizzano lo spazio delle possibili molecole, progettando nuove molecole con proprietà desiderate, prevedendo interazioni e ottimizzando composti esistenti in una frazione del tempo e del costo.
  • Previsioni meteorologiche e modelli climatici: Anche la scienza del clima beneficia dell’IA. Sistemi di previsione meteorologica basati sull’IA producono previsioni accurate in pochi minuti usando un semplice desktop, un compito che prima richiedeva supercomputer da milioni di dollari. Questa efficienza democratizza l’accesso a previsioni di alta qualità e migliora la nostra capacità di prevedere eventi estremi e modellare gli impatti climatici.

Conoscenza: apprendimento personalizzato e accessibile

Infine, l’IA sta ridefinendo le fondamenta dell’apprendimento, promettendo un’istruzione più efficace, personalizzata e accessibile.

  • Apprendimento personalizzato su misura: L’approccio “one-size-fits-all” sta lasciando il posto a percorsi di apprendimento dinamici e personalizzati. Piattaforme di e-learning avanzate usano l’IA generativa e conversazionale per creare esperienze su misura, analizzando lo stile di apprendimento, monitorando i progressi e adattando contenuti.
  • AI Literacy: la nuova alfabetizzazione: In un mondo dominato dall’IA, la capacità di usare questi strumenti in modo efficace, critico e consapevole – l’AI literacy – sta diventando una competenza fondamentale, paragonabile a leggere e scrivere. Significa imparare a imparare con l’IA, usandola come mentore virtuale e assistente di ricerca.
  • Migliorare l’accessibilità: L’IA offre strumenti potenti per rendere l’istruzione più inclusiva. Tecnologie come la trascrizione automatica, la traduzione in tempo reale e la generazione di materiali didattici in formati accessibili abbattono le barriere per studenti con disabilità o background linguistici diversi.

Insomma, l’IA, in questi campi, agisce come un potente “amplificatore cognitivo”. Non sostituisce il giudizio o l’etica dell’umano, ma gli fornisce “superpoteri” analitici, permettendogli di operare a un livello di profondità, velocità e scala prima inaccessibile. È qui che risiede l’uso più nobile e promettente.

I rischi inaccettabili: manipolazione, sorveglianza e de-umanizzazione

Se finora abbiamo parlato delle luci, ora è il momento di guardare alle zone d’ombra dell’IA. Ci sono applicazioni che, per loro stessa natura, rappresentano una minaccia così profonda per la sicurezza umana, la dignità individuale e le fondamenta della democrazia che dovrebbero essere considerate inaccettabili, o usate solo sotto il più ferreo controllo. E no, non sono speculazioni futuristiche; sono realtà emergenti nel 2025.

IA nella guerra: un confine pericoloso

La frontiera più pericolosa è senza dubbio l’applicazione dell’IA alla guerra. L’integrazione di sistemi intelligenti negli apparati militari sta rapidamente salendo le gerarchie decisionali, creando un nuovo tipo di conflitto più letale e inquietante. Le manifestazioni più allarmanti includono:

  • Armi letali autonome (LAWS): La linea rossa etica. Sistemi d’arma capaci di cercare, identificare e uccidere bersagli umani senza intervento umano diretto. La prospettiva di macchine che prendono decisioni di vita o di morte solleva questioni angoscianti di responsabilità e moralità. Pionieri dell’IA come Geoffrey Hinton avvertono che non sono fantascienza, ma una possibilità concreta che richiede regolamentazione urgente.
  • Droni e omicidi mirati potenziati dall’IA: L’IA amplifica la portata e l’autonomia dei droni. Se da un lato aumenta la precisione, dall’altro abbassa la soglia per l’uso della forza letale e crea una distanza psicologica, portando a un numero tragicamente elevato di vittime civili collaterali, come documentato dalle Nazioni Unite in vari conflitti.
  • Armi biologiche progettate dall’IA: Forse lo scenario più terrificante. Ricerche accademiche hanno mostrato come un software IA per la scoperta di farmaci benefici possa essere riprogrammato per scopi malevoli. Un’IA ha generato 40.000 molecole potenzialmente letali in meno di sei ore, alcune simili al VX, il più potente agente nervino mai creato. Questo apre la porta a una nuova era di bioterrorismo.

Erosione della fiducia e della verità: deepfake e sorveglianza

Accanto alla minaccia fisica, l’IA minaccia la nostra infrastruttura sociale basata sulla fiducia e sulla verità condivisa. La capacità dei modelli di IA generativa di creare contenuti (audio, video, testo) indistinguibili dalla realtà sta erodendo le fondamenta del nostro ecosistema informativo.

  • Deepfake come arma di manipolazione di massa: Nel 2025, truffe e manipolazioni basate su deepfake sono una minaccia di routine e in crescita. La tecnologia è così accessibile che chiunque può creare un deepfake vocale in minuti o un video in poche ore. Vengono usati per frodi finanziarie (un’azienda di Hong Kong ha perso 25 milioni di dollari per una videochiamata deepfake), per materiale pornografico non consensuale (il 98% dei deepfake video, prevalentemente contro le donne), e per diffondere disinformazione politica e interferire con la democrazia. Sulla questione della disinformazione, uno studio la descrive come un’ “aggressione” e una “violenza silenziosa”, un “inquinamento informativo” causato dalle fake news, e sottolinea come la sua diffusione sia facilitata dalla viralità sui social media.
  • Sorveglianza di massa e social scoring: L’IA è il motore della sorveglianza di massa su scala inimmaginabile. Tecnologie di riconoscimento facciale e analisi comportamentale monitorano intere popolazioni, mettendo a rischio privacy e libertà civili. Pratiche come il “social scoring”, dove i governi valutano i cittadini per determinare l’accesso a diritti e servizi, sono considerate una minaccia così grave che l’AI Act europeo le ha esplicitamente vietate come a “rischio inaccettabile”.

De-umanizzazione e giustizia predittiva

L’applicazione acritica dell’IA a processi decisionali che impattano profondamente la vita delle persone rischia una pericolosa de-umanizzazione, sostituendo il giudizio umano, l’empatia e il contesto con la logica fredda e spesso fallace di un algoritmo.

  • Giustizia predittiva e decisioni automatizzate: Sistemi come l’algoritmo COMPAS, usato negli Stati Uniti per prevedere la recidiva criminale, hanno dimostrato gravi bias razziali, portando a sentenze discriminatorie. La consapevolezza di questi rischi ha spinto i legislatori, come in Italia, a stabilire che l’IA in ambito giudiziario può essere usata solo come supporto, ma mai sostituire la decisione finale umana.

Le minacce più gravi, diciamocelo, non vengono da una singola applicazione isolata, ma dalla loro potenziale convergenza sinergica. Un attore malintenzionato potrebbe orchestrare un attacco ibrido combinando deepfake per generare panico, un cyber-attacco IA per disabilitare infrastrutture critiche, e il rilascio di un patogeno IA. Questo scenario è qualitativamente più grave e richiede un approccio alla sicurezza completamente nuovo.

C’è poi una profonda asimmetria: la facilità di usare l’IA per causare danni contro l’enorme difficoltà di difendersi. Creare un deepfake è alla portata di quasi tutti, mentre la difesa è immensa, costosa e perennemente in ritardo. Una difesa puramente reattiva è destinata a fallire; serve una regolamentazione proattiva che vieti o limiti severamente la diffusione incontrollata di queste tecnologie.

Bias silenziosi e iniquità strutturali

Oltre alle minacce palesi, l’IA nasconde rischi più insidiosi: i bias algoritmici e le iniquità strutturali che i sistemi possono perpetuare e amplificare, spesso in modo silenzioso. Questi rischi non derivano da un uso malevolo, ma dal normale funzionamento della tecnologia, e minacciano di codificare le disuguaglianze esistenti sotto una patina di presunta oggettività.

Il problema dei dati di addestramento

Il nocciolo del problema sta nel machine learning: questi modelli non “pensano”, ma imparano a riconoscere pattern statistici da enormi quantità di dati di addestramento. Se i dati riflettono pregiudizi, stereotipi e disuguaglianze storiche, l’IA non solo li apprenderà e replicherà, ma spesso li amplificherà. Questo è pericoloso perché il pregiudizio si nasconde dietro la complessità matematica dell’algoritmo, rendendolo difficile da identificare.

Il bias algoritmico ha molteplici origini: può derivare dai dati di addestramento (es. un sistema di reclutamento che penalizza le candidature femminili se addestrato su dati storici maschili); dal modello stesso, che può esagerare correlazioni spurie; o dai pregiudizi umani degli sviluppatori, che scelgono quali dataset includere. Ricercatrici come Timnit Gebru definiscono i grandi modelli linguistici “pappagalli stocastici” che ripetono i pattern linguistici e culturali dei loro dati, spesso sovrarappresentando una prospettiva occidentale, maschile e anglofona.

Manifestazioni concrete del bias

Le manifestazioni di questo bias sono ampiamente documentate. I primi sistemi di riconoscimento facciale avevano tassi di errore più alti per donne e persone di colore. I generatori di immagini, con prompt neutri come “un dottore”, tendono a produrre uomini bianchi, mentre per “un’infermiera” generano donne, rafforzando stereotipi di genere. Gli algoritmi di selezione del personale hanno penalizzato i curriculum con indicatori di genere femminile o appartenenza a minoranze etniche. La conferenza Reuters ha illustrato come l’impatto possa essere sottile ma profondo, ad esempio nel caso delle lingue minoritarie.

Proprietà intellettuale e copyright

L’IA generativa è anche al centro di una tempesta legale ed etica per la proprietà intellettuale (PI). La “fame di dati” dei modelli generativi ha portato gli sviluppatori a usare lo “scraping indiscriminato del web”. Dataset come LAION-5B, usati per addestrare modelli come Stable Diffusion, contengono miliardi di immagini e testi protetti da copyright, usati senza consenso, attribuzione o compensazione. Questa pratica ha scatenato cause legali di alto profilo, come quella di Getty Images contro Stability AI. La questione legale è se le opere generate dall’IA siano “opera derivata” e se la loro creazione sia giustificata dal “fair use”. L’esito è incerto, ma potrebbe comportare sanzioni miliardarie. Alcune aziende propongono l'”opt-out”, che però inverte l’onere, costringendo gli artisti a monitorare e proteggere la propria PI.

Impatto pratico sul lavoro e sulla giustizia

L’uso di IA con bias o addestrata su dati di dubbia provenienza in contesti critici come il mercato del lavoro e il sistema giudiziario non fa che aggravare le disuguaglianze. Nel lavoro, l’IA viene usata in ogni fase, dalla selezione allo screening dei curriculum, al monitoraggio delle prestazioni e alle decisioni di licenziamento. Se non controllati, questi sistemi diventano strumenti di discriminazione automatizzata, accentuando la debolezza del lavoratore e rendendo opache le decisioni.

Nel sistema giudiziario, l’uso dell’IA comporta rischi enormi. Oltre al bias, i grandi modelli linguistici sono noti per le loro “allucinazioni”, generando informazioni false ma plausibili, come precedenti legali inesistenti. L’uso acritico ha già portato a sanzioni e mina la fiducia nel sistema. Il nuovo codice deontologico italiano stabilisce che l’IA non può sostituire il giornalismo, implicando che la responsabilità umana rimane centrale.

In pratica, il bias algoritmico non è un semplice “bug” da correggere con più dati. È, in un certo senso, una caratteristica intrinseca del machine learning attuale. Finché i dati rifletteranno una società imperfetta, i modelli saranno imperfetti. La soluzione non è puramente tecnica. Serve massima trasparenza su dati e processi di addestramento, audit algoritmici obbligatori e indipendenti, e il riconoscimento che questi strumenti non sono oracoli oggettivi. Non dovrebbero mai prendere decisioni critiche senza una robusta supervisione umana e meccanismi chiari per i cittadini di contestare le decisioni algoritmiche.

Le questioni di PI e privacy rivelano un conflitto fondamentale: la “fame di dati” dell’IA contro i diritti fondamentali. I modelli attuali sono stati costruiti su una premessa di crescita esponenziale, che richiedeva quantità sempre maggiori di dati, portando a ignorare sistematicamente decenni di legislazione su copyright e protezione dei dati. Il modello di business dell’IA generativa è, alla sua radice, potenzialmente illegale ed eticamente insostenibile. Il futuro dipenderà dalla risoluzione di questo conflitto, con nuovi modelli di licenza per compensare i creatori e investimenti in tecniche di apprendimento più efficienti con meno dati.

L’erosione della creatività: arte, autenticità e il pericolo della sostituzione

L’Intelligenza Artificiale generativa offre strumenti apparentemente potenti per la creazione di contenuti, ma, diciamocelo, un’analisi più attenta rivela profonde ragioni etiche, legali e anche pratiche per sconsigliarne l’uso nel dominio dell’arte e della creatività, o almeno per approcciarlo con estrema cautela. Questo perché, insomma, non stiamo parlando di un semplice pennello digitale.

Violazione strutturale della proprietà intellettuale

Alla base dell’attuale ondata di IA generativa c’è un problema irrisolto e fondamentale di proprietà intellettuale. I modelli più noti, tipo Stable Diffusion, sono stati addestrati usando dataset colossali come LAION-5B, che contengono miliardi di immagini e testi presi indiscriminatamente dal web. Questo processo ha incluso un numero enorme di opere protette da copyright, usate senza consenso, senza attribuzione o un equo compenso per artisti, fotografi e scrittori originali. Capisci, è come se un aspirante pittore imparasse copiando senza permesso tutti i quadri della galleria degli Uffizi e poi vendesse le sue opere “ispirate”. Questa pratica ha scatenato una valanga di cause legali, come quella di Getty Images contro Stability AI, che mettono in discussione la legalità stessa di questi sistemi. La questione è se le opere generate dall’IA siano “opere derivate” e se la loro creazione possa essere giustificata dal “fair use”. Un esito sfavorevole per gli sviluppatori di IA potrebbe comportare sanzioni miliardarie. Le soluzioni proposte, come l'”opt-out” per gli artisti, sono state criticate perché rovesciano l’onere: invece di chiedere un consenso preventivo, costringono i singoli creatori a un lavoro oneroso e continuo di protezione della propria proprietà intellettuale. Non è proprio pratico, no?

Omogeneizzazione culturale e mancanza di originalità

L’IA non “crea” nel senso umano del termine, non ha intenzione, esperienza vissuta o consapevolezza culturale. I modelli generativi sono, come li chiamano le ricercatrici Emily Bender e Timnit Gebru, “pappagalli stocastici”: bravissimi a riconoscere e ricombinare pattern statistici presi dai loro immensi dati di addestramento. Dato che questi dati vengono in gran parte da internet, tendono a sovrarappresentare una prospettiva occidentale, maschile e anglofona, che diventa la “voce” predefinita del modello. Questo porta a due conseguenze pratiche negative:

  • La prima è il rafforzamento di stereotipi e bias. Se chiedi a un generatore di immagini “un CEO”, tende a produrre uomini bianchi, rafforzando pregiudizi professionali di genere e razza.
  • La seconda è una progressiva omogeneizzazione culturale. Dando priorità a stili e narrazioni dominanti nei dati, l’IA rischia di marginalizzare ulteriormente le forme di espressione artistica non occidentali o minoritarie, soffocando quella diversità che è la linfa vitale della creatività.

Svalutazione del processo creativo e dell’autenticità

Il filosofo Luciano Floridi avverte che l’ascesa dei contenuti generati dall’IA minaccia l’unicità della creazione umana. Per millenni, ogni contenuto era legato a un’esperienza umana, ma oggi non è più così. Se valutiamo un’opera solo dal prodotto finale, la capacità umana di creare rischia di diventare “inutile” di fronte a macchine più veloci ed efficienti. Ma l’arte è molto più del risultato: è il processo, l’intenzione, la lotta e l’espressione di una prospettiva unica. L’uso dell’IA per generare arte rischia di svuotare di significato questo processo, riducendo la creatività a una semplice esecuzione di prompt. Inoltre, la proliferazione di contenuti sintetici, indistinguibili da quelli umani, rischia di “inquinare” la nostra infosfera, rendendo più difficile distinguere l’autentico dal falso e svalutando il lavoro di chi dedica la vita a perfezionare un’arte.

Potenziale di abuso e danno alla persona

La stessa tecnologia che permette di generare immagini artistiche può essere facilmente usata per scopi malevoli, con conseguenze devastanti. L’esempio più allarmante è la creazione di materiale pornografico deepfake non consensuale. Le statistiche sono agghiaccianti: il 98% di tutti i video deepfake rientra in questa categoria e il 99% delle vittime sono donne, usate per molestie e umiliazione. Questa non è una questione di creatività, ma una grave violazione dei diritti umani. Per un artista, la propria immagine e voce sono fondamentali per credibilità e autenticità. La possibilità che vengano “clonate” e usate per creare opere o messaggi che contraddicono i valori dell’artista rappresenta una minaccia terrificante e un tradimento della fiducia del pubblico.

Perciò, anche se l’IA può essere utile per l’ideazione o per automatizzare compiti ripetitivi, il suo impiego per la creazione artistica vera e propria è pieno di pericoli. Incoraggia lo sfruttamento del lavoro altrui, minaccia la diversità culturale, svaluta il processo creativo umano e apre la porta ad abusi gravi. La vera arte, insomma, richiede più di un algoritmo; richiede un’anima.

La minaccia sistemica e il dilemma del controllo

Il dibattito sull’Intelligenza Artificiale nel 2025 è dominato da una tensione profonda, che oscilla tra l’ottimismo per le sue applicazioni pratiche e un’ansia crescente per la sua traiettoria a lungo termine. Al centro di questa ansia c’è la questione del rischio esistenziale: la possibilità che lo sviluppo di un’IA superintelligente possa portare a una perdita di controllo da parte dell’umanità, con conseguenze potenzialmente catastrofiche. Questa preoccupazione, un tempo relegata alla fantascienza, è ora espressa apertamente da alcuni dei più brillanti pionieri del settore.

Voci a confronto: Hinton, Bengio e LeCun

Le voci più autorevoli e allarmate vengono proprio da chi ha gettato le fondamenta intellettuali dell’attuale rivoluzione dell’IA.

  • Geoffrey Hinton, Premio Nobel per il suo lavoro sulle reti neurali, è su posizioni di critica radicale. Dopo aver lasciato Google, avverte che c’è una probabilità non trascurabile (stima tra il 10% e il 20%) che l’IA possa prendere il controllo dall’umanità. Critica aspramente le grandi aziende tecnologiche per una corsa sfrenata alla supremazia che privilegia il profitto a scapito della sicurezza. Propone che le aziende dedichino una frazione significativa della loro potenza di calcolo (fino a un terzo) alla ricerca sulla sicurezza e sull’allineamento dell’IA con i valori umani. Nel suo discorso per il Nobel, ha messo in guardia sulla minaccia esistenziale a lungo termine posta da “esseri digitali più intelligenti di noi”, sottolineando che “non abbiamo idea se riusciremo a mantenerne il controllo”.
  • Yoshua Bengio, un altro dei “padrini dell’IA”, condivide preoccupazioni simili, focalizzandosi sull’IA “agentica”. Teme che sistemi autonomi, programmati per massimizzare un obiettivo, possano sviluppare comportamenti emergenti e imprevedibili, come l’inganno o un istinto di auto-conservazione, che potrebbero entrare in conflitto diretto con gli interessi umani.

Tuttavia, non tutti gli esperti di primo piano condividono questo allarme apocalittico. C’è una forte corrente più scettica, che ritiene le preoccupazioni sul rischio esistenziale esagerate.

  • Yann LeCun, terzo membro dei premi Turing e Chief AI Scientist di Meta, è il più esplicito di questi critici. È profondamente scettico che l’attuale paradigma dei Large Language Models (LLM) possa mai portare a un’Intelligenza Artificiale Generale (AGI) di livello umano. Sostiene che gli LLM, pur utili, mancano di comprensione del mondo fisico, capacità di ragionamento, pianificazione a lungo termine e memoria persistente. Secondo LeCun, gli LLM sono un vicolo cieco tecnologico destinato a essere reso obsoleto da nuovi paradigmi di IA basati su modelli del mondo e apprendimento interattivo. Per questo, LeCun vede la minaccia non in una superintelligenza malevola, ma nel rischio che il controllo di una tecnologia potente sia concentrato nelle mani di poche aziende che operano a porte chiuse. È un fervente sostenitore dell’open source come strumento per democratizzare l’accesso all’IA e prevenire monopoli.

Concentrazione di potere e nuova corsa agli armamenti

Indipendentemente dalla plausibilità del rischio esistenziale, emerge con chiarezza un rischio sistemico che è invece presente, reale e urgente: l’enorme e crescente concentrazione di potere tecnologico, economico e sociale in un numero ristrettissimo di attori.

  • Un’oligarchia tecnologica: Lo sviluppo dei modelli di IA di frontiera è un’impresa costosissima che richiede infrastrutture computazionali e accesso ai dati che solo poche aziende al mondo possono permettersi. Questo ha creato un’oligarchia tecnologica che non solo domina il mercato, ma esercita un’influenza sproporzionata sulla società, definendo di fatto le regole di un gioco a cui tutti siamo costretti a partecipare.
  • Una nuova corsa agli armamenti: La competizione per la supremazia nell’IA non è solo commerciale, ma profondamente geopolitica. La rivalità tra potenze mondiali come Stati Uniti, Cina e Russia è vista come una pericolosa “corsa agli armamenti” per l’IA. Questa competizione, spinta da imperativi di sicurezza nazionale, rischia di accelerare lo sviluppo a scapito della sicurezza, trascurando le precauzioni etiche e portando a un’escalation di tensioni che potrebbe catalizzare un conflitto globale. La BBC, ad esempio, sta sviluppando rilevatori di deepfake, indicando che questa “corsa agli armamenti” è già in corso.

È fondamentale distinguere il rischio esistenziale a lungo termine, una minaccia speculativa ma potenzialmente definitiva legata alla superintelligenza, dal rischio sistemico a breve e medio termine, una minaccia concreta e attuale legata alla concentrazione di potere che sta già erodendo la concorrenza, la democrazia e la stabilità sociale. Anche se gli LLM fossero un percorso fallimentare verso l’AGI, il problema del potere concentrato non svanirebbe. Quindi, le politiche di governance e la regolamentazione non possono aspettare un consenso scientifico sull’AGI; devono affrontare la realtà tangibile del potere concentrato qui e ora.

Open source vs. closed source: il dilemma

All’interno di questo dibattito, la questione dell’open source contro i modelli chiusi (“closed source”) è emersa come una delle principali linee di frattura ideologiche e strategiche nel mondo dell’IA del 2025. Non è una mera scelta tecnica, ma una posizione profondamente politica.

  • Yann LeCun e Meta, che hanno rilasciato il loro modello Llama come open source, sostengono che sia l’unico modo per prevenire il dominio del settore da parte di poche aziende, democratizzando l’accesso e stimolando innovazione.
  • D’altra parte, figure come Geoffrey Hinton esprimono grave preoccupazione per la proliferazione incontrollata di modelli open source molto potenti, che potrebbero essere facilmente adattati per scopi malevoli da attori criminali o terroristici. Hinton ha paragonato l’open-sourcing di questi modelli alla distribuzione incontrollata di materiali per la costruzione di armi nucleari.
  • La Cina, nel frattempo, presenta un modello ibrido: il suo modello di punta, DeepSeek, è open source e compete a livello globale, ma il suo sviluppo e la sua diffusione avvengono all’interno di un quadro normativo statale estremamente rigido che ne controlla gli usi.

Non esiste una risposta facile a questo dilemma. L’open source promuove innovazione, trasparenza e concorrenza, ma aumenta il rischio di abuso. L’approccio chiuso può offrire maggiore controllo sulla sicurezza, ma cementa il potere di un’oligarchia e limita la capacità della comunità scientifica di ispezionare questi sistemi critici. La scelta tra questi due poli definirà in gran parte il panorama dell’IA nei prossimi anni.

Conclusioni: scegliere il nostro futuro con l’IA

A giugno 2025, ci troviamo a un bivio storico, un momento di straordinaria potenza tecnologica e, diciamocelo, di altrettanta straordinaria vulnerabilità sociale. L’Intelligenza Artificiale, come abbiamo visto, ha dimostrato di essere uno strumento senza precedenti per amplificare la produttività umana, accelerare la scoperta scientifica e personalizzare servizi in modi prima inimmaginabili. Ha aperto nuove frontiere nella medicina, nell’innovazione e nell’accesso alla conoscenza, promettendo di risolvere alcune delle sfide più complesse dell’umanità.

Allo stesso tempo, però, ha rivelato il suo potenziale oscuro: può essere un catalizzatore di guerre più autonome e letali, uno strumento di manipolazione di massa che erode la verità, un meccanismo per perpetuare ingiustizie algoritmiche e una forza centralizzatrice di un potere immenso e poco controllabile.

La domanda fondamentale che ci poniamo oggi non è più solo “cosa può fare l’IA?”, ma piuttosto “cosa dovrebbe fare l’IA?”. E, ancora più importante, “cosa non dovrebbe mai fare?”. La risposta a queste domande non è tecnica, ma risiede in una profonda riflessione sui nostri valori collettivi. La sfida più grande è garantire che l’IA rimanga uno strumento al servizio dell’umanità, un’intelligenza che potenzia quella umana anziché tentare di sostituirla, che promuove la dignità, l’autonomia e la creatività dell’individuo anziché eroderle.

Per navigare questo bivio, serve un approccio olistico, concertato e coraggioso, che coinvolga tutti. Per i policy-maker e le istituzioni internazionali, è imperativo accelerare la cooperazione per stabilire standard minimi globali e “linee rosse” invalicabili sulle applicazioni più rischiose, come le armi letali autonome e l’uso di deepfake per interferire con le elezioni. Devono anche promuovere l’interoperabilità tra i regimi normativi per evitare una dannosa frammentazione del mondo digitale.

Per l’industria tecnologica, è il momento di abbracciare una “responsabilità radicale”. Questo significa passare da un modello di sfruttamento dei dati basato sull'”opt-out” a uno basato sul consenso informato e sull'”opt-in”. Significa investire una quota significativa dei profitti e della potenza di calcolo nella ricerca sulla sicurezza, sull’interpretabilità e sull’allineamento etico dell’IA. E significa accettare la necessità di audit esterni, indipendenti e trasparenti sui propri modelli e processi.

Per le aziende e le organizzazioni (utilizzatori), nessuna può implementare l’IA senza una solida governance interna. Nessun sistema di IA ad alto rischio dovrebbe essere dispiegato senza una preventiva e rigorosa valutazione d’impatto sui diritti umani, sulla privacy e sull’equità. Soprattutto, deve essere sempre garantita una supervisione umana finale, significativa e responsabile per ogni decisione critica. L’automazione non deve mai diventare un alibi per l’abdicazione della responsabilità umana.

Per la società, l’istruzione e i media, è cruciale integrare l'”AI literacy” in tutti i curricula educativi, non come materia tecnica, ma come competenza civica fondamentale. È altrettanto vitale sostenere il giornalismo investigativo, la ricerca accademica indipendente e le organizzazioni della società civile che agiscono come controllori critici del potere tecnologico, garantendo che il dibattito pubblico sull’IA sia informato, pluralistico e democratico.

In definitiva, il futuro dell’Intelligenza Artificiale è una tela ancora in gran parte da dipingere. Non è un destino inevitabile scritto nel codice, ma il risultato delle scelte che faremo oggi – come individui, come organizzazioni e come società globale. Queste scelte determineranno se l’IA diventerà uno strumento di emancipazione collettiva, di prosperità condivisa e di comprensione più profonda, o un meccanismo di controllo, disuguaglianza e conflitto. La saggezza non sta nel tentativo di fermare una marea tecnologica inarrestabile, ma nell’imparare a costruirne gli argini, i canali e i porti sicuri, per dirigerne la forza verso il bene comune.

Tabella riassuntiva: IA – usi e non usi (giugno 2025)

AreaUsi consigliati (pratici)Usi da evitare / con estrema cautela (pratici)Motivazione pratica
Produttività & InnovazioneSviluppo software assistito (es. generazione codice, test unitari)
Manutenzione predittiva (es. previsione guasti macchinari)
Supporto clienti intelligente (es. chatbot di primo livello)
Gestione della conoscenza aziendale (es. ricerca e organizzazione documenti)
Modelli IA piccoli e specializzati (costo/velocità/controllo)
Implementazione senza riorganizzazione processi interni e formazione (basso ROI)
Dipendenza eccessiva da modelli generici colossali per ogni task (costi, impatto ambientale)
Il valore si realizza con integrazione strategica e focus su compiti specifici, non solo con l’acquisto.
Modelli generalisti non sono sempre efficienti o sostenibili per task di nicchia.
Salute, Scienza & ConoscenzaDiagnostica potenziata (es. analisi immagini mediche per diagnosi precoci)
Medicina personalizzata (es. ottimizzazione terapie, dosaggi)
Sanità digitale di prossimità (es. monitoraggio wearable per patologie croniche)
Scoperta di farmaci (es. progettazione molecole, previsione interazioni)
Previsioni meteorologiche e climatiche (es. modelli più veloci e accessibili)
Apprendimento personalizzato (es. adattamento contenuti didattici allo studente)
AI literacy (alfabetizzazione all’IA come competenza civica)
Sostituzione del giudizio medico/scientifico/educativo umano
Diagnosi o trattamenti completamente automatizzati senza supervisione finale
L’IA è un amplificatore cognitivo, non un sostituto per giudizio, etica e intuizione umana in campi critici.
Sicurezza & SocietàStrumenti di cybersecurity per rilevamento minacce
Analisi dati per prevenzione crimini (con robusta governance)
Armi letali autonome (LAWS) senza controllo umano significativo
Droni per omicidi mirati con autonomia IA (rischio vittime civili)
Progettazione di armi biologiche
Deepfake per manipolazione di massa (politica, frodi)
Sorveglianza di massa e social scoring (es. riconoscimento facciale remoto in tempo reale)
Giustizia predittiva (decisioni finali IA su recidiva/sentenze)
Sviluppo di IA senza investimenti significativi in sicurezza e allineamento etico
Rischio esistenziale, violazione diritti umani, erosione della fiducia, de-umanizzazione, concentrazione di potere. L’asimmetria tra la facilità di attaccare e la difficoltà di difendersi rende questi usi troppo pericolosi.
Etica & DirittiAI Literacy per i cittadini
Audit algoritmici indipendenti
Trasparenza su dati e processi di addestramento
Obbligo di segnalare l’uso dell’IA (nuovo codice italiano)
Sistemi IA che perpetuano o amplificano bias sociali esistenti (es. in selezione personale, riconoscimento facciale, generazione immagini)
Addestramento su dati protetti da copyright senza consenso/compensazione
Mancanza di meccanismi chiari per contestare decisioni algoritmiche
Delega della responsabilità decisionale all’IA senza supervisione umana finale
Perpetuazione di disuguaglianze, incertezza legale, erosione della fiducia, opacità decisionale, danno alla dignità e ai diritti individuali.
Arte & CreativitàStrumenti IA come supporto per l’ideazione o automatizzazione di compiti ripetitivi (sotto guida umana)Creazione artistica vera e propria da parte dell’IA senza profonda supervisione umana e controllo creativo
Uso di modelli IA addestrati su opere protette da copyright senza licenza
Generazione massiva di contenuti “beige” che omogeneizzano la cultura
Creazione di deepfake non consensuali o dannosi
Rischio di violazione PI, omogeneizzazione culturale, svalutazione del processo creativo umano, e potenziale di abuso con conseguenze devastanti (es. deepfake pornografici).
Governance & ControlloRegolamentazione basata sul rischio (es. AI Act UE)
Standard volontari per la gestione del rischio (es. NIST RMF USA)
Obblighi di etichettatura per i contenuti generati dall’IA
Concentrazione di potere di sviluppo IA in poche mani private o statali
Corsa agli armamenti IA tra potenze globali
Mancanza di regolamentazione proattiva che limiti gli abusi
Open-sourcing di modelli molto potenti senza adeguate salvaguardie
Rischio sistemico di monopolio tecnologico, destabilizzazione geopolitica, difficoltà di difesa da attacchi IA, e assenza di controllo pubblico su tecnologie critiche.