Nel suo articolo “L’AI va in guerra (c’era già, ma qualcosa è cambiato?)”, Frediani spiega come negli ultimi mesi si sia prodotto uno strappo nel racconto pubblico sull’intelligenza artificiale, non perché l’AI non fosse già presente nei conflitti - lo si è visto chiaramente nella guerra in Ucraina e nelle operazioni militari israeliane a Gaza - ma perché alcune vicende recenti hanno reso esplicita una dinamica che finora restava relativamente sotto traccia, la formazione di un nuovo complesso militare-industriale centrato sull’intelligenza artificiale.
Il caso che Frediani analizza è lo scontro tra il Pentagono e Anthropic, l’azienda che sviluppa i modelli linguistici della famiglia Claude. L’episodio ha assunto contorni quasi paradossali, dopo aver ottenuto un contratto da centinaia di milioni di dollari per sviluppare versioni dei suoi modelli destinate all’uso governativo - come Claude Gov - la società è stata improvvisamente esclusa dai contratti con il Dipartimento della Difesa statunitense. Secondo quanto ricostruito dall’autrice, la decisione è maturata in un contesto di tensioni crescenti tra l’azienda e i vertici militari sulle condizioni d’uso dei modelli.
Anthropic aveva infatti fissato alcune linee rosse, niente sorveglianza di massa sui cittadini statunitensi e niente impiego dei modelli in sistemi d’arma completamente autonomi. Limiti che, nelle parole dell’autrice, appaiono come una sorta di minimo etico difensivo in uno scenario tecnologico sempre più orientato verso la militarizzazione.
Nel frattempo, l’AI di Anthropic continuava a essere utilizzata in ambiti militari per attività apparentemente “di supporto”: analisi di dati di intelligence, identificazione di pattern nelle immagini satellitari e nelle comunicazioni intercettate, simulazioni operative, produzione di briefing. Non sistemi autonomi di combattimento, ma strumenti che contribuiscono a organizzare e interpretare le informazioni su cui si basano le decisioni militari. Ed è proprio qui che, sottolinea Frediani, il confine tra assistenza analitica e decisione operativa diventa rapidamente ambiguo.
Un ruolo centrale in questa infrastruttura è svolto anche da Palantir, la società di analisi dei dati da anni partner del governo statunitense. I modelli di Anthropic sarebbero stati integrati nel sistema Maven Smart System, piattaforma che aggrega dati provenienti da diversi sensori e fonti di intelligence per fornire ai militari una visione operativa unificata del campo di battaglia.
La vicenda ha avuto conseguenze anche dentro l’industria tecnologica. Da un lato Anthropic è diventata un soggetto scomodo per il governo statunitense; dall’altro la sua posizione ha rafforzato il dibattito interno alle aziende tecnologiche sull’uso militare dell’intelligenza artificiale. In alcune società dipendenti e ricercatori hanno iniziato a firmare petizioni per chiedere limiti più stringenti contro l’uso dei sistemi di AI per la sorveglianza di massa o per armi autonome.
La questione, conclude Frediani, non riguarda solo una disputa tra un’azienda e il Pentagono. Rende visibile una contraddizione più ampia, la distanza tra l’immagine pubblica dell’intelligenza artificiale come tecnologia al servizio del progresso e la realtà di una corsa geopolitica in cui governi e aziende sono pronti a superare limiti etici e regolatori pur di assicurarsi la supremazia tecnologica.
Per questo, scrive l’autrice, il vero punto non è stabilire se siamo già entrati in una “crisi autoritaria dell’AI”, ma riconoscere che le contraddizioni sono ormai sotto gli occhi di tutti e che gli spazi di intervento della società civile e delle istituzioni democratiche rischiano di restringersi rapidamente, se non si apre subito un confronto pubblico su questi processi.