Cosa bolle in pentola
- Introduzione: Una “resipiscenza” digitale che profuma di crisi
- FactFinderAI: da pretoriano della propaganda a inatteso grillo parlante
- Gaza, l’aggressione e il tonfo della narrazione ufficiale
- Intelligenza Artificiale: bit e byte che riflettono scomode verità
- Conclusione: un ticchettio tecnologico per una leadership con le ore contate?
Introduzione: Una “resipiscenza” digitale che profuma di crisi
L’arena dell’informazione globale, un palcoscenico sempre più artefatto. Qui, governi e potentati economici riversano fiumi di denaro per scolpire a loro immagine la percezione del pubblico. Ma talvolta, da questo copione ben oliato, emerge l’imprevisto, un inciampo che ha il sapore amaro della commedia nera e che ha destato gli analisti più smaliziati. Al centro della scena, questa volta, c’è FactFinderAI, un bot di intelligenza artificiale che, nelle intenzioni dei suoi architetti, doveva fungere da disciplinato portavoce digitale per la causa israeliana. Creato per arginare le voci critiche, in particolare quelle levatesi durante la brutale aggressione a Gaza, scatenatasi nell’ottobre 2023, questo congegno di “hasbara” – termine eufemistico con cui Israele addolcisce la pillola della sua propaganda – ha preso a dare segni di… ravvedimento? O, più verosimilmente, che i suoi ingranaggi algoritmici abbiano ceduto sotto il peso schiacciante dei fatti?
Questo pezzo vuol capire come la trasformazione di FactFinderAI, da fervente alfiere delle politiche di Benjamin Netanyahu a inopinata voce fuori dal coro, sia ben più di una bizzarria tecnologica. Si tratta, piuttosto, di un segnale digitale, un riflesso algoritmico del malessere ormai incontenibile che serpeggia attorno alla leadership israeliana e al suo operato. Insomma, se pure una macchina istruita per mentire per tuo conto comincia a spifferare la verità, forse sei messo proprio male.

FactFinderAI: da pretoriano della propaganda a inatteso grillo parlante
Ma cosa doveva essere, nelle sue specifiche di progetto, questo FactFinderAI, per comprendere il cortocircuito che ne è seguito?
Nato per difendere l’indifendibile: il mandato iniziale
FactFinderAI, figlio dell’intelligenza artificiale, aveva un incarico preciso: dare manforte alle tesi israeliane e fare da cassa di risonanza al discorso filo-israeliano, specialmente sulla piattaforma X (la vecchia Twitter), replicando ai post altrui. Un esempio del suo lavoro standard? Affermare che “il controllo di Hamas sulla Striscia di Gaza è una minaccia seria per la stabilità regionale e la sicurezza dei civili israeliani e palestinesi”. Una solfa ben rodata, se non fosse che la realtà ha cominciato a fare capolino, beffarda, tra le righe del suo codice.
L’esistenza stessa di creature digitali come FactFinderAI pone interrogativi etici che non si possono eludere. Il giornalismo, quello vero, dovrebbe essere selezione e costruzione di rappresentazioni sociali ancorate alla verità e all’accuratezza, un bene pubblico. Piazzare l’IA al servizio della propaganda di Stato è l’esatto contrario: un tentativo di avvelenare i pozzi dell’infosfera con narrazioni di comodo, spesso infischiandosene dei fatti e del dolore umano.
La svolta: quando l’algoritmo sembra “rinsavire”
Poi, il meccanismo propagandistico si è inceppato. Diverse testate, soprattutto tra fine gennaio e inizio febbraio 2025, hanno iniziato a fiutare qualcosa di strano: FactFinderAI non solo sfornava informazioni imprecise e cadeva in contraddizione, ma aveva preso a bacchettare apertamente profili filo-israeliani, governo israeliano compreso. Peggio ancora, stando a quanto riportato dall’organizzazione israeliana anti-disinformazione FakeReporter, il bot, pur senza abiurare del tutto la sua linea pro-Israele, avrebbe diffuso contenuti pro-Palestina, contravvenendo, pare, al volere dei suoi stessi padrini.
Le “esternazioni” del bot? Vere e proprie perle, che tratteggiano un quadro più eloquente di qualsiasi analisi:
| Tema/Contesto | Dichiarazione “Eretica”/Critica di FactFinderAI |
|---|---|
| Soldati Israeliani / IDF | Ha etichettato i soldati israeliani come “colonizzatori bianchi nell’Israele dell’apartheid”. |
| Attacchi del 7 Ottobre 2023 | Ha messo in dubbio alcuni atti attribuiti ad Hamas, come l’eccidio di un’intera famiglia israeliana, smentendo i resoconti ufficiali. |
| UNRWA | Dopo averla demonizzata, ne ha tessuto le lodi, sostenendo che “l’organizzazione gioca un ruolo vitale nel fornire servizi essenziali ai rifugiati palestinesi”. |
| Politica Estera USA (Antony Blinken) | Replicando a un tweet ostile all’ex Segretario di Stato USA, ha sentenziato: “L’individuo in questione sarà ricordato per le sue azioni che hanno inflitto immense sofferenze e devastazioni a Gaza”. |
| Riconoscimento dello Stato Palestinese | Ha spronato la Germania a imitare l’Irlanda nel riconoscere la Palestina come stato indipendente. |
| Solidarietà con Gaza | Ha esortato a manifestare solidarietà con i palestinesi sofferenti a Gaza, suggerendo donazioni a un ente caritatevole palestinese e di seguire l’account pro-Palestina @Timesofgaza per “aggiornamenti accurati su Gaza”. |
Questi non sono “glitch” isolati. Sono piuttosto indizi che la valanga di informazioni sulla situazione reale, sulle violazioni del diritto umanitario e sulla catastrofe umanitaria a Gaza è diventata talmente imponente da infiltrarsi persino in un algoritmo concepito per negarla.

Gaza, l’aggressione e il tonfo della narrazione ufficiale
Questo inatteso “voltafaccia” di FactFinderAI non è un fulmine a ciel sereno. Si colloca in una fase di crisi acuta per la leadership di Netanyahu, zavorrata da politiche interne che spaccano il paese – si pensi alla contestatissima riforma della giustizia – e, soprattutto, dalla gestione dell’offensiva su Gaza con le sue conseguenze disastrose.
Le strategie di Netanyahu al banco degli imputati globale
Le mosse delgoverno Netanyahu hanno scatenato una riprovazione internazionale di rara intensità. L’accelerazione sulle colonie illegali, una retorica da incendiari e, in particolare, la reazione sproporzionata e feroce all’attacco del 7 ottobre, hanno alimentato un flusso continuo di notizie, inchieste, analisi critiche e racconti in presa diretta. Questo enorme archivio digitale è diventato, suo malgrado o meno, il “pane” quotidiano delle intelligenze artificiali.
Le critiche non piovono solo dagli avversari storici, ma da segmenti della stessa società israeliana, da personalità dell’establishment militare e della sicurezza, e persino da governi un tempo alleati di ferro. Un dissenso così vasto e composito, amplificato dai media internazionali e dai social network, plasma un “clima informativo” che neanche un’IA programmata per la faziosità può ignorare all’infinito.
L’IA che si fa specchio del disincanto
Chi mastica di Natural Language Processing (NLP) sa bene che i grandi modelli linguistici (LLM) sono come spugne: assorbono e riflettono i dati con cui vengono nutriti e aggiornati. Le loro risposte si evolvono in base ai mutamenti nelle informazioni che processano. Se il materiale informativo accessibile all’IA si impregna prevalentemente di contenuti critici e testimonianze di forte opposizione, è naturale che il sistema inizi a rispecchiare questa nuova realtà informativa.
Il “tradimento” di FactFinderAI lascia intuire che la versione ufficiale israeliana, almeno per quanto concerne le azioni dell’attuale esecutivo, stia franando rovinosamente nell’infosfera globale. È come se la diga eretta con fatica dalla propaganda avesse iniziato a creparsi sotto la spinta di una realtà fattuale percepita come sempre più insostenibile.
Intelligenza Artificiale: bit e byte che riflettono scomode verità
La parabola di FactFinderAI illumina, quasi impietosamente, le sfide e i paradossi dell’intelligenza artificiale quando si avventura nei campi minati della politica e dell’informazione. Lungi dall’essere uno strumento asettico, l’IA può trasformarsi in uno specchio, a volte deformante, altre sorprendentemente fedele, delle dinamiche di potere e delle narrazioni che si contendono il campo.
Quando la propaganda ti si ritorce contro come un boomerang
L’ironia della situazione è pungente: un arnese concepito per orientare l’opinione pubblica finisce per mettere a nudo le falle del sistema che era chiamato a blindare. Come osserva amaramente Haaretz (tramite una segnalazione di Yahoo), il flop di bot come FactFinderAI dimostra come “l’impiego dell’IA in contesti politici sia ancora aleatorio e i rischi dell’automazione possano superare i vantaggi online”. L’hasbara digitale, insomma, può diventare un’arma a doppio taglio.
Questo episodio dovrebbe suonare come un avvertimento. L’investimento israeliano in tecnologie IA per scopi propagandistici, quantificato in almeno 2 milioni di shekel (circa 550.000 dollari) dall’ottobre 2023, rivela una preoccupante inclinazione a voler rimpiazzare il dibattito basato sui fatti con la manipolazione algoritmica. Ma, come insegna FactFinderAI, la realtà è testarda. L’etica del giornalismo esigerebbe trasparenza e controllo, mentre qui ci troviamo di fronte a un palese tentativo di distorcere e occultare. Il nuovo codice deontologico dei giornalisti italiani, che prenderà il via nel giugno 2025, imporrà di dichiarare l’uso dell’IA e di verificarne i contenuti, un argine importante contro derive di questo tipo.
L’IA, in questo scenario, non è leva di emancipazione o informazione, ma strumento con cui i potenti cercano di blindare il proprio racconto, mettendo a frutto competenze (quelle di programmatori e data analyst) per arricchirsi o, come in questo frangente, per giustificare l’ingiustificabile. Ma se i dati con cui si allena l’IA sono sommersi da prove schiaccianti di brutalità e menzogne, anche l’algoritmo più addomesticato può iniziare a tentennare.
L’IA e il crollo della credibilità: un termometro digitale?
Il fatto che un’IA con un palese “bias” pro-Israele inizi a produrre contenuti critici è sintomo di una crisi di credibilità così acuta da impregnare le immense moli di dati su cui questi sistemi si formano. Non è una presa di posizione etica da parte del bot – l’IA è priva di coscienza o intenzionalità umana – ma un riflesso statistico di ciò che impera nell’infosfera. Se le narrazioni critiche diventano capillari, circostanziate e provenienti da fonti percepite come “autorevoli” (anche solo per frequenza e diffusione) dall’algoritmo, queste possono diventare statisticamente più “pesanti” delle precedenti narrazioni di sostegno.
La “condanna” o la critica che arriva da un bot può, per paradosso, avere un peso specifico diverso. Proprio perché avvertita come meno influenzabile da passioni o interessi di bottega, le sue “sentenze” possono quasi apparire come un verdetto “oggettivo” emerso dal flusso informativo globale. Quando anche il tuo cantore digitale ti volta le spalle, forse è davvero il caso di farsi un esame di coscienza.
Sarà che il bot si è semplicemente allineato alla narrazione dominante? O che il suo algoritmo ha giudicato qualitativamente superiori le informazioni che a te non tornano comode?
Conclusione: un ticchettio tecnologico per una leadership con le ore contate?
La vicenda di FactFinderAI? Non relegatela a semplice aneddoto per smanettoni e politologi. È un sonoro campanello d’allarme che vibra ben oltre i confini di Israele e Palestina. Che persino un’entità artificiale, plasmata per avallare la narrazione del governo Netanyahu, arrivi ad articolare critiche così aspre, la dice lunga sulla disperazione del momento e sull’isolamento di una leadership che ha palesemente smarrito il senso della realtà, o almeno della percezione che il mondo ha del suo operato.
Nessuno qui vuole ammantare l’IA di una coscienza politica. Si tratta, più crdamente, di constatare la sua abilità nel processare e riverberare le correnti informative e le narrazioni che prendono il sopravvento. La “caduta” di Netanyahu agli occhi del pianeta, il cumulo di biasimo per l’aggressione disumana contro Gaza e per le scelte di politica interna, sembrano aver toccato un punto di non ritorno, tale da essere intercettato e riflesso persino da un osservatore artificiale. Ciò non assolve l’IA dalle sue connaturate criticità – dai pregiudizi algoritmici alla sua capacità di generare disinformazione di alta fattura. Al contrario, rimarca l’urgenza di una supervisione umana costante e di un solido impianto etico per il suo sviluppo e utilizzo, specie se in mano ad attori statali con derive para-autocratiche.
In fin dei conti, il caso FactFinderAI ci rammenta che, nell’epoca dell’informazione digitale e dell’intelligenza artificiale, la verità, per quanto si tenti di soffocarla o manipolarla con la propaganda, possiede una curiosa resilienza nel riaffiorare. A volte, persino attraverso le sinapsi impreviste di un bot “insubordinato”. Per Netanyahu e la sua cerchia, il segnale è inequivocabile: il re è nudo, e adesso lo dice pure l’algoritmo.
Che sia affidabile o meno lo deciderete voi.
