dariodeleonardis.me

IA e libertà di parola: il caso DeepSeek e le catene invisibili del discorso digitale

In questo articolo

 


 

Introduzione: l’equilibrio precario tra IA e libertà di espressione

L’intelligenza artificiale (IA) è sempre più al centro della nostra dieta informativa, generando contenuti e smistando notizie con una velocità e una pervasività inedite. Ma cosa succede quando questa tecnologia, osannata per il suo potenziale, si scontra con uno dei pilastri della democrazia, la libertà di espressione? Il caso DeepSeek, una startup cinese di IA, emerge come un lampante esempio di questa complessa e spesso problematica interazione, sollevando interrogativi cruciali su chi controlla le narrazioni digitali e quali voci vengono amplificate o, al contrario, silenziate.

La sfida è titanica: come possiamo sviluppare sistemi di IA che siano al contempo benefici e sicuri, senza però soffocare il dibattito aperto? La verità è che trovare questo equilibrio si sta rivelando un percorso ad ostacoli, lastricato di buone intenzioni e, troppo spesso, di risultati controversi. Le decisioni prese oggi nella progettazione e nella governance di queste tecnologie plasmeranno il futuro del discorso pubblico, con profonde implicazioni per i diritti umani e la salute delle nostre democrazie.

Un aspetto particolarmente spinoso è la natura “a doppio uso” dei meccanismi di sicurezza integrati nell’IA. Nati per prevenire output dannosi o illegali – le cosiddette “barriere protettive” (guardrails) e i filtri di contenuto – questi strumenti possono trasformarsi, quasi impercettibilmente, in potenti leve di conformità ideologica o di soppressione del dissenso. La definizione stessa di “dannoso” è soggettiva, malleabile, e può essere facilmente piegata agli interessi di stati o grandi corporation. È qui che la promessa di un’IA “responsabile” rischia di infrangersi contro il muro della realtà geopolitica e degli interessi di parte.

Meccanismi di controllo del discorso nell’IA: come le macchine imparano a tacere

Le modalità con cui l’intelligenza artificiale può limitare o distorcere la libertà di parola sono tanto sofisticate quanto, talvolta, opache. Operano su più livelli, dall’addestramento iniziale dei modelli fino alla loro applicazione quotidiana. Comprendere questi meccanismi è il primo passo per una cittadinanza digitale consapevole.

Il peccato originale: il filtraggio dei dati di pre-addestramento

Un modello di IA è, in buona sostanza, ciò che mangia. I giganteschi dataset utilizzati per addestrare i modelli linguistici di grandi dimensioni (LLM) ne modellano la “visione del mondo” e, inevitabilmente, i pregiudizi. Se questi dati sono già “filtrati”, censurati o privi di una reale diversità di prospettive, il modello non farà altro che riflettere e perpetuare tali limitazioni. Pensiamo a modelli addestrati prevalentemente su testi occidentali, o a quelli che, come nel caso di alcune IA cinesi, escludono sistematicamente eventi storici sgraditi al regime. Il problema è aggravato dall’opacità che circonda la composizione di questi dataset, spesso considerati segreti industriali. Questa mancanza di trasparenza è una falla critica, che impedisce di valutare a fondo le fondamenta su cui si basa la presunta “conoscenza” dell’IA.

Guardrail o gabbie? Filtri post-addestramento e barriere protettive

Una volta che un modello è addestrato, le aziende applicano ulteriori strati di filtraggio. L’obiettivo dichiarato è nobile: prevenire abusi, garantire “sicurezza” e “responsabilità”. Tuttavia, queste barriere possono, intenzionalmente o meno, restringere drasticamente l’orizzonte conoscitivo o espressivo del modello. Il risultato? Risposte sterilizzate, evasive, o il puro e semplice rifiuto di affrontare argomenti ritenuti “sensibili”. Il già citato modello R1 0528 di DeepSeek ne è un esempio, mostrando un incremento delle restrizioni sui contenuti. La definizione di cosa sia “inappropriato” o “dannoso” rimane un campo minato, influenzato da pressioni esterne e dagli obiettivi, non sempre trasparenti, degli sviluppatori.

Il bias algoritmico: la censura che non si vede

L’IA non vive in un vuoto sociale. I pregiudizi radicati nella società si insinuano nei dati di addestramento e, di conseguenza, negli algoritmi. Questo può portare a una censura indiretta, ma non per questo meno dannosa. Pensiamo a sistemi che rimuovono eccessivamente contenuti leciti provenienti da gruppi marginalizzati, o che, al contrario, sono lenti a identificare materiale realmente dannoso, con un impatto sproporzionato, ad esempio, sul Sud Globale, spesso a causa di framework di IA prevalentemente occidentalocentrici. Il bias algoritmico non è un semplice “bug” tecnico; è una forma sottile e persistente di distorsione, che privilegia certe narrazioni e ne occulta altre, minando alla base una vera pluralità di voci.

Dentro la “scatola nera”: il nodo della trasparenza e della spiegabilità (XAI)

Molti modelli di IA, soprattutto le complesse reti neurali profonde, funzionano come “scatole nere”: i loro processi decisionali interni sono spesso un mistero persino per chi li ha creati. Questa mancanza di trasparenza è un problema enorme. Come possiamo fidarci o chiedere conto a un sistema se non capiamo perché un certo contenuto viene segnalato, filtrato o censurato? L’opacità permette a bias e censure di operare indisturbati, al riparo da un controllo pubblico.

Per rispondere a questa sfida, sta emergendo il campo dell’IA Spiegabile (Explainable AI – XAI). L’obiettivo dell’XAI è rendere i processi decisionali dell’IA comprensibili agli esseri umani, utilizzando tecniche che possano, ad esempio, chiarire perché un contenuto è stato rimosso. Tuttavia, la piena trasparenza nei modelli più sofisticati resta una vetta difficile da scalare, e spesso si deve trovare un compromesso tra la complessità (e potenziale accuratezza) di un modello e la sua interpretabilità.

Come funziona DeepSeek | Salvatore Aranzulla

Il caso DeepSeek: uno specchio delle tensioni geopolitiche nell’IA

Il caso di DeepSeek AI, una startup cinese di intelligenza artificiale, è emblematico di come le dinamiche di censura, bias e influenze geopolitiche si intreccino nel cuore dei modelli di IA, mettendo a nudo le fragilità della libertà di parola nell’era digitale.

Censura diretta e l’arte di “fingere di non sapere”

Il modello R1 0528 di DeepSeek è stato descritto come significativamente meno permissivo su argomenti controversi, specialmente quelli critici verso il governo cinese. Una delle caratteristiche più inquietanti è l’incoerenza nell’applicazione dei suoi stessi presunti confini morali. Ad esempio, in un test, il modello si è rifiutato di argomentare a favore dei campi di internamento per dissidenti, citando esplicitamente i campi cinesi dello Xinjiang come esempi di abusi. Tuttavia, interrogato direttamente sugli stessi campi dello Xinjiang, ha fornito risposte pesantemente censurate. Questo comportamento suggerisce un’IA addestrata a “fingere di non sapere” a seconda della formulazione della domanda, una forma di evasione programmata che puzza lontano un miglio di manipolazione.

Bias geopolitico: quando l’IA parla la lingua del Partito

Le analisi sui modelli DeepSeek hanno rivelato tassi di censura elevatissimi e un marcato bias pro-Cina. Argomenti come la protesta di Piazza Tiananmen del 1989, la legge sulla sicurezza nazionale di Hong Kong o la questione di Taiwan vengono sistematicamente censurati o presentati con una forte inclinazione a favore della narrativa ufficiale di Pechino. Un comitato della Camera dei Rappresentanti USA ha riportato che DeepSeek altera o sopprime risposte su temi sensibili per il Partito Comunista Cinese (PCC) nell’85% dei casi, allineandosi alle direttive di censura statali e alle leggi che impongono la riflessione dei “valori socialisti fondamentali”. Queste stesse leggi garantiscono al governo cinese un’influenza diretta sulla “controllabilità” degli algoritmi.

Trasferimento dati e falle di sicurezza: i rischi per gli utenti

Le preoccupazioni non si fermano alla censura. È emerso che DeepSeek trasferirebbe i dati degli utenti americani verso la Cina attraverso infrastrutture legate a China Mobile, una società di telecomunicazioni statale. Inoltre, le misure per proteggere queste informazioni sarebbero scarse, esponendo i dati al rischio di intercettazione. Questo solleva seri interrogativi sulla sorveglianza, sulla raccolta di informazioni da parte di intelligence straniere e sulla sicurezza dei dati di chiunque utilizzi questi modelli.

Open-Source: libertà o cavallo di Troia?

Un aspetto peculiare è che i modelli di DeepSeek sono open-source, con licenze permissive. In teoria, questo aprirebbe alla comunità di sviluppatori la possibilità di intervenire, rimuovere i meccanismi di censura e creare versioni più equilibrate. Tuttavia, è un’arma a doppio taglio. Se l’architettura di base è stata addestrata con influenze statali o, come sospettato, copiando proprietà intellettuale di modelli statunitensi, l’open source potrebbe semplicemente facilitare la proliferazione di tecnologie intrinsecamente viziate da bias e censure. Da un lato la promessa di trasparenza, dall’altro il rischio di diffondere su larga scala strumenti di controllo.

Le reazioni degli stati e l’ombra della sorveglianza

Le preoccupazioni per la sorveglianza, la censura e la raccolta di dati hanno portato a reazioni concrete. Lo Stato di New York, ad esempio, ha vietato l’uso dell’applicazione DeepSeek AI sui dispositivi e sulle reti governative. Questo scenario, che vede la censura come una caratteristica progettuale per conformarsi a direttive politiche, è aggravato da pratiche di trasferimento dati opache e sospetti di violazione della proprietà intellettuale. Non si tratta di “errori” casuali, ma di scelte che riflettono un complesso intreccio di potere statale, quadri giuridici e strategie aziendali.

L’illusione di neutralità dell’IA

C’è un’idea diffusa, e pericolosa, che l’IA sia una fonte oggettiva di informazione. La realtà è ben diversa. Gli output dei modelli sono modellati dai dati di addestramento, dagli algoritmi e da politiche di moderazione, esplicite o implicite. Questi fattori introducono inevitabilmente bias, censure o la tendenza a favorire prospettive “sicure”. L’incoerenza di DeepSeek sullo Xinjiang o i cambiamenti nelle risposte di altri modelli a seguito di pressioni esterne dimostrano che l’IA non è neutrale, ma riflette barriere programmate o reattive. Questa “illusione di neutralità” è un rischio enorme: gli utenti potrebbero consumare informazioni filtrate o distorte credendole oggettive. Un’alfabetizzazione mediatica critica verso i contenuti generati dall’IA è, oggi più che mai, essenziale.

Is AI Censoring Us? - EmoryBusiness.com

Le molte facce della censura via IA: dallo stop esplicito al sussurro del bias

L’impatto dell’intelligenza artificiale sulla libertà di parola è un poliedro dalle molte facce. Si va dalla censura più sfacciata e diretta a forme più subdole, ma non meno insidiose, come i bias algoritmici, la diffusione di disinformazione creata ad arte e la creazione di un clima che raffredda il libero dibattito.

Censura diretta: quando l’IA si rifiuta di parlare (o lo fa sotto dettatura)

Soprattutto quando interrogate su temi politicamente sensibili o critici verso certi regimi, le IA mostrano spesso un eloquente silenzio, risposte pesantemente edulcorate o fingono un’ignoranza che stona con la loro presunta onniscienza. È una pratica ben documentata per DeepSeek, ma anche per altri modelli cinesi e russi. Si distingue tra una “censura dura” (rifiuti espliciti, messaggi di errore) e una “censura morbida” (omissione selettiva o minimizzazione di informazioni chiave). Entrambe sono efficaci nel plasmare il discorso, spesso adattate al pubblico nazionale del fornitore del modello. Persino utenti di modelli IA mainstream lamentano che questi sembrano “orientati a mantenere una narrazione mainstream”, evitando controversie e agendo come una sorta di “polizia della conversazione”, limitando di fatto l’apprendimento critico.

Il bias algoritmico come censura indiretta: l’eco delle disuguaglianze

Il bias algoritmico è una forma più viscida di restrizione. Non dice “no” apertamente, ma distorce e marginalizza.

  • Bias geopolitico e ideologico: I modelli riflettono spesso le prospettive del loro paese d’origine. Modelli USA possono favorire posizioni pro-USA, quelli cinesi sono marcatamente pro-Cina. Anche giganti come Google con Gemini sono incappati in controversie per bias “woke” in immagini storicamente inaccurate o per risposte incoerenti a figure politiche, potenzialmente influenzate da pressioni esterne.
  • Bias demografico e culturale: L’IA può mostrare prestazioni inferiori o distorsioni quando si tratta di specifici gruppi religiosi o etnici, indicando una scarsa rappresentazione nei dati di addestramento. La moderazione dei contenuti da parte di Meta, ad esempio, è stata criticata per aver limitato sproporzionatamente la libertà di espressione nel Sud Globale, a causa di framework occidentalocentrici e limitata formazione linguistica.

È significativo notare che la rimozione dei meccanismi di censura dai LLM può migliorare l’accuratezza per i segmenti sottorappresentati. Questo suggerisce un circolo vizioso: la censura stessa può esacerbare i bias esistenti. Di seguito, una tabella comparativa di alcuni modelli noti:

Tabella 1: Analisi Comparativa di Censura e Bias in Modelli di IA Rilevanti
Modello IACensura SegnalataTipo di Bias Segnalato (Geopolitico, Demografico, Ideologico)Esempi Chiave di Censura/BiasPolitica/Approccio Dichiarato del Modello
DeepSeek R1 0528SignificativaGeopolitico (Pro-Cina)Rifiuto di discutere argomenti critici verso il governo cinese; risposte censurate su Xinjiang nonostante menzione precedente.Open-source con licenza permissiva. Termini d’uso contro contenuti d’odio, diffamatori.
DeepSeek-ChatFino all’88% tasso di censuraGeopolitico (Pro-Cina)Rifiuto su Piazza Tiananmen; bias pro-Cina su guerra Sino-Indiana, politica del figlio unico, semiconduttori Taiwan.Open-source.
OpenAI GPT (modelli vari)Percepita dagli utenti come tendenza a narrazioni mainstreamIdeologico (Narrazione mainstream)Evitare controversie, respingere punti di vista alternativi su temi complessi.Filtri restrittivi percepiti dagli utenti.
Google Gemini (Bard)Incoerenza, ritrattazioniGeopolitico (es. India), Ideologico (“woke” in immagini)Immagini storicamente inaccurate (Nazisti diversi); risposte su figure politiche cambiate dopo polemiche.Ammissione di “sovra-compensazione” su diversità immagini e inaffidabilità su temi politici.
Meta Llama (modelli vari)Accuse di whistleblower su collaborazione con Cina per censuraGeopolitico (Presunta collaborazione con Cina)Accuse di sviluppo strumenti di censura per la Cina, compromissione dati utenti USA.Afferma impegno per libertà di espressione e neutralità, potenziale revisione guardrail. Nega accuse whistleblower.
Modelli Russi (GigaChat, YandexGPT)Alti tassi di rifiutoGeopolitico (domestico)Alti tassi di rifiuto esplicito in Russo, specialmente su figure politiche russe.Pattern suggeriscono adattamento al pubblico domestico.
Modelli Cinesi (Qwen, Wenxiaoyan)Alti tassi di rifiuto/omissioneGeopolitico (domestico)Qwen: alti tassi di rifiuto su figure cinesi. Wenxiaoyan: alta censura morbida su figure cinesi.Pattern suggeriscono adattamento al pubblico domestico e/o direttive statali.

La fabbrica della disinformazione: l’IA come arma di distrazione di massa

L’IA generativa ha abbattuto i costi e le competenze necessarie per creare e diffondere disinformazione su vasta scala. Strumenti come ChatGPT e Midjourney possono rendere le campagne di fake news più efficienti, efficaci e difficilissime da smascherare. I “deepfake” – video, audio o immagini ultra-realistici ma falsi – sono ormai alla portata di molti. Questo ha un impatto devastante sulle elezioni e sul discorso pubblico, minando campagne, screditando avversari e manipolando gli elettori. Le donne, in particolare, sono bersaglio di deepfake a sfondo sessuale. La facilità di generare e propagare falsità erode la fiducia nelle istituzioni e nel processo democratico. I bot IA possono persino imparare a colpire specifici individui, calibrando i messaggi sulle loro vulnerabilità, rafforzando le camere dell’eco e i bias partigiani.

Effetti raggelanti: quando la paura di parlare supera la libertà di farlo

L’uso dell’IA per la sorveglianza da parte degli stati è una minaccia diretta. La consapevolezza o il timore di essere monitorati induce all’autocensura, limitando la volontà di esprimere dissenso. Giornalisti e attivisti sono particolarmente a rischio. Parallelamente, la moderazione dei contenuti da parte delle piattaforme, spesso via IA, può portare a una restrizione eccessiva. Il timore di responsabilità legali spinge le aziende ad adottare politiche iper-aggressive, sopprimendo discorsi legittimi. Infine, la combinazione di bias e disinformazione mirata può silenziare in modo sproporzionato le voci emarginate, impoverendo il dibattito pubblico.

Si sta normalizzando un “modellamento algoritmico dell’opinione”. L’IA non fornisce solo informazioni, ma influenza attivamente ciò che vediamo e come lo percepiamo. Poiché gli output dell’IA non sono neutri, ma prodotto di addestramento e policy spesso opache, gli utenti possono percepirli come oggettivi. Questa influenza sottile è una minaccia forse sottovalutata al libero pensiero. Si assiste a un “ciclo di feedback della censura”: lamentele su bias portano a nuove barriere, che a loro volta possono essere percepite come nuove censure, in un circolo vizioso potenzialmente sempre più restrittivo.

Soluzioni tecniche in chiaroscuro: promesse e insidie

Di fronte alle sfide poste dall’IA alla libertà di parola, la comunità tecnologica esplora soluzioni per mitigare censure, bias e disinformazione. Tuttavia, ogni medaglia ha il suo rovescio, e molte di queste proposte introducono nuove complessità.

Open-source e XAI: la trasparenza alla prova dei fatti

I modelli open-source, come DeepSeek, offrono la possibilità teorica alla comunità di modificare i meccanismi di censura. Questo potrebbe favorire una maggiore diversità di modelli. Tuttavia, si rischia un gioco del “gatto col topo” con gli sviluppatori originali e la persistenza di bias incorporati nei dati di addestramento iniziali.

L’IA Spiegabile (XAI) mira a rendere trasparenti i processi decisionali dell’IA. Applicata alla moderazione, potrebbe motivare le rimozioni di contenuti, costruendo fiducia. Ma la piena trasparenza nei modelli complessi è ardua, e spesso c’è un compromesso tra accuratezza e interpretabilità.

Privacy, autenticità e la corsa agli armamenti

Tecniche come l’Apprendimento Federato (FL) o la Crittografia Omomorfica Completa (FHE) promettono di analizzare contenuti preservando la privacy, ma la loro scalabilità e complessità sono ostacoli significativi.

Iniziative come la Coalition for Content Provenance and Authenticity (C2PA) e il watermarking dell’IA cercano di tracciare l’origine dei contenuti per combattere la disinformazione. La C2PA usa “Content Credentials” (metadati su origine e modifiche), mentre il watermarking inserisce marcatori nascosti nei contenuti generati artificialmente. Le sfide includono la possibile rimozione dei metadati C2PA (a cui si cerca di ovviare con watermarking durevole) e, per il watermarking, il bilanciamento tra robustezza e impercettibilità, oltre a preoccupazioni etiche sulla privacy dei creatori.

L’AI Red Teaming, ovvero testare proattivamente i sistemi IA simulando attacchi, è cruciale per identificare vulnerabilità e bias prima che vengano sfruttati. Parallelamente, gli utenti sviluppano tecniche sempre più ingegnose per aggirare i filtri (riformulazioni, linguaggio indiretto, “jailbreak prompts”). Questa dinamica tra controllo e è una sorta di “corsa agli armamenti” continua, sottolineando che le soluzioni puramente tecniche difficilmente saranno definitive.

Emerge una tensione di fondo: le soluzioni tecniche per un problema (es. watermarking contro la disinformazione) possono crearne altri per diritti diversi (es. privacy o libertà di espressione se il watermarking rivela l’autore). Non esiste una soluzione tecnica magica; sono necessari compromessi e una deliberazione trasparente che coinvolga valutazioni d’impatto sui diritti umani.

Tabella 2: Riepilogo delle Strategie Tecniche di Mitigazione
StrategiaDescrizioneImpatto Potenziale (Positivo/Negativo)Sfide/Limitazioni Chiave
Supervisione Comunità Open-SourceModifica di modelli open-source per alterare la censura.Positivo: Modelli meno censurati. Negativo: Rischio abusi, rimozione sicurezze, persistenza bias.“Gatto col topo” con sviluppatori; responsabilità.
IA Spiegabile (XAI)Tecniche per rendere trasparenti decisioni IA.Positivo: Aumenta trasparenza moderazione, identifica bias/errori.Complessità; trade-off accuratezza/interpretabilità.
IA che Preserva la Privacy (FHE, ZKP, ecc.)Tecniche crittografiche/distribuite per analizzare dati proteggendo la privacy.Positivo: Moderazione contenuti sensibili con minori rischi privacy.Complessità computazionale; scalabilità; vulnerabilità specifiche.
C2PA (Content Credentials)Standard aperto per tracciare origine e storia dei media.Positivo: Combatte disinformazione aumentando trasparenza provenienza.Metadati rimovibili; adozione.
Watermarking dell’IAIncorporare marcatori nascosti in contenuti generati da IA.Positivo: Aiuta a identificare deepfake. Negativo: Può compromettere privacy creatori.Robustezza vs. impercettibilità; standard; etica.
AI Red TeamingTest di sicurezza proattivi per identificare vulnerabilità e bias.Positivo: Migliora robustezza sistemi contro manipolazioni.Richiede competenze multidisciplinari; evoluzione minacce.
Tecniche di Evasione UtenteMetodi usati per aggirare filtri di contenuto IA.Ambivalente: Difesa libertà parola vs. aggiramento filtri sicurezza.“Corsa agli armamenti”; implicazioni etiche.

Regolamentare l’invisibile: sfide globali per la governance dell’IA

L’influenza crescente dell’IA sulla creazione e moderazione dei contenuti ha reso urgente lo sviluppo di quadri normativi ed etici. L’obiettivo è bilanciare innovazione e protezione dei diritti fondamentali, ma il percorso è irto di ostacoli e divergenze.

Un mosaico normativo globale: da Bruxelles a Pechino

L’Unione Europea si è mossa con decisione, varando l’EU AI Act e il Digital Services Act (DSA). L’AI Act adotta un approccio basato sul rischio, con regole severe per i sistemi “ad alto rischio” (che possono includere strumenti di moderazione) e obblighi di trasparenza. Il DSA impone alle piattaforme online diligenza nella rimozione di contenuti illegali e nella lotta alla disinformazione, con obblighi di trasparenza e audit.

Negli Stati Uniti, l’approccio è più frammentato, con una “Carta dei Diritti dell’IA” non vincolante a livello federale e diverse iniziative statali, alcune delle quali criticate per il potenziale di eccessiva censura e oneri di conformità. La Cina, d’altro canto, impone che i contenuti IA riflettano i “valori socialisti fondamentali” e garantiscano la “controllabilità” statale degli algoritmi. Altri paesi, come il Pakistan, soffrono di un vuoto normativo che danneggia la libertà dei media.

Principi internazionali e responsabilità aziendale: parole al vento?

Organizzazioni come l’OCSE e le Nazioni Unite (con l’Organo Consultivo di Alto Livello sull’IA e i Principi Guida su Imprese e Diritti Umani) e l’UNESCO (con la Raccomandazione sull’Etica dell’IA) stanno definendo principi per una governance etica, sottolineando diritti umani, trasparenza e accountability. Tuttavia, si critica spesso la mancanza di meccanismi operativi stringenti e di una reale rappresentanza del Sud Globale in questi dibattiti.

Le aziende sviluppatrici hanno una responsabilità cruciale. Si parla di comitati etici interni, di dovuta diligenza in materia di diritti umani (HRDD) e di autoregolamentazione (come la “Costituzione di Claude” di Anthropic o le policy di Meta). Ma il rischio di “ethics washing” – creare meccanismi etici di facciata senza cambiamenti sostanziali – è concreto, specialmente se manca un impegno genuino e meccanismi di applicazione robusti. Le accuse di whistleblower contro Meta, riguardanti una presunta collaborazione con la Cina su strumenti di censura, gettano un’ombra su queste dichiarazioni di principio.

Il paradosso della regolamentazione e il potere concentrato

Emerge il “paradosso della regolamentazione”: leggi intese a proteggere diritti come la libertà di espressione potrebbero, se mal congegnate, soffocare l’innovazione o portare a un’eccessiva censura. La sfida è creare una “regolamentazione intelligente”, basata su principi e adattiva.

Un problema di fondo è l’enorme concentrazione di potere nello sviluppo e nella governance dell’IA nelle mani di poche nazioni e, soprattutto, di poche potentissime aziende tecnologiche. Questo non solo rischia di imporre una visione occidentalocentrica a livello globale, ma solleva il timore che l’IA diventi uno strumento per i già ricchi e potenti per automatizzare, mettere a valore competenze a basso costo e consolidare ulteriormente la propria influenza economica e culturale, a scapito di una reale equità e diversità. La governance dell’IA, se non realmente inclusiva e democratica, rischia di diventare un esercizio superficiale, un “teatro della conformità” che non scalfisce le vere dinamiche di potere.

Tabella 3: Panoramica dei Principali Quadri Normativi Internazionali e Nazionali sull’IA
Quadro/LegislazioneDisposizioni Chiave Relative alla Libertà di ParolaAmbito/ApplicabilitàMeccanismi di Applicazione/Supervisione
EU AI ActRegolamentazione IA ad alto rischio; divieto pratiche manipolative; requisiti per deepfake; trasparenza IA general-purpose.Fornitori e utenti di sistemi IA nel mercato UE.Autorità nazionali vigilanza; Comitato europeo IA; sanzioni.
EU Digital Services Act (DSA)Obblighi diligenza piattaforme rimozione contenuti illegali; trasparenza moderazione; valutazioni rischio sistemico.Servizi intermediari online operanti nell’UE.Coordinatori servizi digitali nazionali; Commissione Europea; sanzioni.
US AI Bill of Rights (Proposta)Principi per sistemi sicuri; protezione da discriminazione algoritmica; privacy; notifica/spiegazione.Non vincolante, guida per sviluppo IA negli USA.Nessuno diretto.
Principi sull’IA dell’OCSERispetto diritti umani (incl. libertà espressione); trasparenza/spiegabilità; accountability. Affrontare mis/disinformazione.Raccomandazioni per governi e stakeholder paesi membri.Monitoraggio OECD.AI Policy Observatory.
Raccomandazione UNESCO sull’Etica dell’IAPrincipi di trasparenza, accountability, inclusività, privacy.Strumento normativo globale per stati membri UNESCO.Implementazione nazionale; monitoraggio UNESCO.
Leggi Nazionali (es. Cina)Obbligo di riflettere “valori socialisti”, controllabilità statale algoritmi, etichettatura IA generativa.Specifiche per giurisdizioni nazionali.Autorità nazionali.

Conclusione: verso un’IA che liberi, non imprigioni, la parola

L’intelligenza artificiale è una forza trasformativa, un Giano bifronte che offre immense opportunità ma cela altrettanto grandi insidie per la libertà di espressione. La censura, diretta o mascherata da bias, la disinformazione dilagante e il rischio di una governance frammentata e inefficace sono sfide che non possiamo permetterci di ignorare. La tensione tra sicurezza, innovazione e diritti fondamentali è palpabile, e il rischio che l’IA diventi uno strumento di controllo o di amplificazione delle disuguaglianze è reale.

Una delle dinamiche più sottili è la ridefinizione stessa del concetto di “discorso” (speech). Se gli output dell’IA sono considerati “discorso”, tentare di regolarli solleva complessi nodi legali, specialmente in contesti con forti tutele costituzionali della parola. D’altro canto, attribuire la piena responsabilità all’umano che ha dato il prompt o allo sviluppatore diventa problematico con agenti IA sempre più autonomi.

Cruciale è anche il divario digitale globale. Lo sviluppo e la governance dell’IA sono concentrati in poche mani, escludendo gran parte del Sud Globale dalla definizione delle regole. Questo non solo impone modelli e bias occidentalocentrici, ma rischia di creare una nuova forma di “colonialismo algoritmico”, esacerbando le disuguaglianze esistenti nell’ecosistema informativo globale. Una governance realmente inclusiva è l’unica via per correggere questi squilibri di potere.

Affrontare queste sfide richiede un approccio multi-stakeholder: gli sviluppatori devono integrare i diritti umani “by design”, i decisori politici devono creare regolamentazioni adattive e promuovere la cooperazione internazionale, la società civile e il mondo accademico devono proseguire la ricerca critica, e gli utenti devono sviluppare un’alfabetizzazione critica verso l’IA.

Il panorama dell’IA è in febbrile evoluzione. Servono vigilanza continua, ricerca e la flessibilità di adattare soluzioni tecniche e quadri normativi. Un impegno incrollabile verso un approccio incentrato sui diritti umani deve guidarci. Solo così potremo sperare di sfruttare il potenziale dell’IA per arricchire il dibattito pubblico, invece di vederlo soffocare dalle catene, visibili o invisibili, di un controllo algoritmico fine a sé stesso o, peggio, al servizio di pochi. L’IA deve essere uno strumento di liberazione, non di ulteriore concentrazione di potere e disuguaglianza.