dariodeleonardis.me

Il Pentagono sfida Anthropic: lo scontro tra etica dell’IA e ambizioni militari degli Stati Uniti

In questo articolo

 


 

Diciamo le cose come stanno: l’idea che l’intelligenza artificiale possa restare “neutrale” o puramente “etica” mentre siede al tavolo dei grandi contratti militari è, nella migliore delle ipotesi, un’illusione. In pratica, è successo quello che molti di noi temevano: il Pentagono ha iniziato a usare gli strumenti che usiamo noi ogni giorno per pianificare operazioni militari. E quando l’azienda produttrice prova a tirare il freno, la risposta di Washington non è diplomatica, è una minaccia diretta.

L’operazione Venezuela e il peccato originale di Claude

Secondo quanto riportato dal Wall Street Journal, i militari statunitensi avrebbero utilizzato Claude, il chatbot di Anthropic, durante l’invasione e il tentativo di cattura del presidente venezuelano Nicolás Maduro. Non sappiamo ancora con precisione “come” sia stato usato, ma il solo fatto che un’IA commerciale sia finita in un teatro bellico accende un faro inquietante sulla militarizzazione della tecnologia.

Anthropic, che ha sempre cercato di vendersi come l’alternativa “buona” e responsabile a OpenAI, ha reagito con una freddezza glaciale. Un portavoce ha ribadito che l’uso di Claude deve rispettare le loro policy di utilizzo, che vietano esplicitamente di facilitare la violenza, progettare armi o effettuare sorveglianza di massa. Insomma, una dichiarazione d’intenti che però si scontra con la realtà dei fatti: Anthropic ha un contratto da 200 milioni di dollari con il Dipartimento della Difesa, gestito tramite quel “passaporto per l’oscurità” che è la partnership con Palantir.

Il Pentagono non accetta i “no”: lo scontro tra etica e guerra

L’amministrazione Trump non sembra intenzionata a scendere a patti. Come riporta Axios, i funzionari governativi stanno seriamente valutando di tagliare i ponti con Anthropic. Il motivo? L’insistenza dell’azienda nel negare l’uso dei propri modelli per la sorveglianza di massa degli americani e per lo sviluppo di armi autonome. “Tutto è sul tavolo”, ha dichiarato una fonte senior, aggiungendo un commento che definire pugnace è poco: “Faremo in modo che paghino un prezzo per averci forzato la mano”.

Qui emerge il vero problema sistemico. Da una parte abbiamo Dario Amodei, CEO di Anthropic, che in un lungo saggio ha definito la sorveglianza su vasta scala assistita dall’IA come un crimine contro l’umanità. Dall’altra c’è il Segretario alla Difesa Pete Hegseth, che ha promesso chiaramente che il Pentagono non userà modelli che “impediscono di combattere le guerre”. È un cortocircuito totale. Non sono sicurissimo di come andrà a finire, ma la sensazione è che il potere politico stia cercando di piegare la tecnologia alla propria volontà di dominio, senza troppi complimenti.

Il prezzo della coerenza nel realismo tecnologico

In un mondo dove sembra che non ci siano alternative alla concentrazione della ricchezza e del potere verso l’alto, la resistenza di Anthropic sembra un’anomalia. Sebbene la comunità degli utenti stia applaudendo la fermezza dell’azienda (basta fare un giro sul subreddit dedicato), resta da vedere quanto questa posizione sia sostenibile economicamente.

In pratica, il rischio è che lo Stato decida di sostituire Anthropic con competitor molto meno “schizzinosi”, come Grok di xAI o i sistemi custom di Palantir. Questo non farebbe altro che accelerare la creazione di un’IA di Stato priva di guardrail etici. Se Anthropic verrà effettivamente “punita” per la sua etica, il messaggio per tutta la Silicon Valley sarà chiaro: l’innovazione è benvenuta, a patto che sia al servizio della forza. Un classico esempio di come le dinamiche di potere tendano a fagocitare ogni tentativo di autonomia morale, riducendo tutto a una questione di efficienza bellica.

Vedremo se Amodei terrà il punto o se, alla fine, le logiche del profitto e della sopravvivenza aziendale avranno la meglio. Per ora, lo scontro tra codice e baionette è appena iniziato.