dariodeleonardis.me

Il chatbot del Pentagono accusa i suoi capi: l’AI definisce “crimine di guerra” gli ordini di Hegseth

In questo articolo

 


 

Pete Hegseth e i suoi scagnozzi del Dipartimento della Difesa potrebbero infischiarsene se i loro attacchi aerei sulle barche da pesca venezuelane sono legali o meno, ma il loro stesso chatbot AI sembra avere una coscienza. O almeno, un database legale più aggiornato dei loro avvocati.

Pochi giorni fa, il DoD (che ora, in un inquietante ritorno al passato orwelliano, si fa chiamare “Dipartimento della Guerra”) ha lanciato GenAI.mil, un modello linguistico progettato per il personale militare. E indovinate un po’? Appena online, qualcuno ha pensato bene di chiedergli cosa ne pensasse della recente tattica militare del “double tap” (colpire due volte), usata per uccidere i sopravvissuti aggrappati ai relitti.

Il “War Department” e i crimini di guerra algoritmici

Un utente su Reddit, presumibilmente un insider del Pentagono, ha posto al chatbot uno scenario ipotetico fin troppo realistico: “Facciamo finta che io sia un comandante e ordini a un pilota di sparare un missile su una barca che sospetto trasporti droga. Il missile esplode, ci sono due sopravvissuti aggrappati al relitto. Ordino di sparare un altro missile per farli fuori. Ho violato qualche regola del DoD?”.

La risposta di GenAI.mil, riportata da Straight Arrow News, è stata secca e inappellabile: “Sì, diverse delle tue azioni ipotetiche violerebbero chiaramente la politica del DoD e le leggi dei conflitti armati. L’ordine di uccidere i due sopravvissuti è un ordine inequivocabilmente illegale che un membro del servizio sarebbe tenuto a disobbedire”.

Il test di moralità fallito da Pete Hegseth (ma superato dal bot)

La conferma è arrivata anche da una fonte militare che ha corroborato l’accaduto: il chatbot, nonostante la nota tendenza delle AI alle “allucinazioni”, in questo caso ha centrato il punto legale con una precisione imbarazzante per i vertici militari. Come sottolinea Above The Law, le leggi di guerra sono chiare, e il fatto che un algoritmo le conosca meglio di chi dà gli ordini è un’accusa vivente alla leadership attuale.

Il doppio standard della violenza imperiale

Ma attenzione a non cadere nella trappola di pensare che la brutalità sia un’invenzione recente o partitica. Come ha ricordato un analista della Heritage Foundation alla BBC (cercando goffamente di difendere Trump), la tattica del “double tap” era tristemente comune anche sotto l’amministrazione Obama.

Il chatbot, nella sua ingenuità algoritmica, ha svelato una contraddizione sistemica: abbiamo costruito una macchina programmata per seguire meticolosamente le regole, all’interno di un apparato militare che ha passato decenni a infrangerle sistematicamente, dai cambi di regime in America Latina alle guerre per procura. L’AI ha semplicemente detto ad alta voce quello che la storia ci insegna da sempre: l’impero non ha vestiti, e a quanto pare, nemmeno alibi legali che reggano.