IA, la guerra del Golfo come un videogioco: Anthropic fa causa al Pentagono sull’uso militare del modello Claude
Contratto da 200 milioni tra l’amministrazione Usa e la start-up finisce al centro di una battaglia legale. L’azienda rifiuta accesso illimitato alla sua Intelligenza artificiale per operazioni militari e armi autonome, scatenando la reazione di Washington
La guerra in mano all’intelligenza artificiale che decide armi da impiegare, obiettivi da colpire ed intensità della forza. Tutto al desk, come in un videogioco, senza impiego di forze sul campo e con micidiali effetti sul terreno. Maggiore potenza di calcolo, minore utilizzo della componente umana nel portare a termine un compito affidato: nel caso di un conflitto una missione di distruzione e di morte.
Finisce davanti ai giudici la controversia tra Anthropic ed il Pentagono sull’uso militare dei sistemi di intelligenza artificiale sviluppati dall’azienda di San Francisco.
Il contratto, del valore di 200 milioni di dollari, era stato siglato nell'estate 2025 ed aveva una durata di due anni. Obiettivo: l'integrazione del modello di IA Claude su reti classificate per operazioni militari, analisi di intelligence, simulazioni e pianificazione operativa.
Le tensioni tra il Pentagono e la startup fondata nel 2021 sono nate quando Anthropic si è rifiutata di concedere al Dipartimento della Difesa l’accesso illimitato alla piattaforma applicativa per operazioni dettate da protocolli militari. Giovedì scorso il Pentagono ha così deciso di classificare la tecnologia come un «rischio per la catena di approvvigionamento statunitense». Come a dire stop a tutte le partecipazioni nel comparto pubblico Usa con seri rischi finanziari. Tra i finanziatori di Anthropic ci sono Google e Amazon.
Dopo la “sanzione” del Dipartimento della Difesa, l'amministratore delegato di Anthropic, Dario Amodei, aveva incontrato il segretario della Difesa, Pete Hegseth, e si era detto disponibile a revocare parte delle restrizioni, salvaguardando però due ambiti: la sorveglianza di massa degli americani e lo sviluppo di armi autonome in grado di colpire senza controllo e supervisione umana.
Questo accadeva pochi giorni prima dello scoppio della guerra del Golfo. Ma il Wall Street Journal ha pubblicato una notizia secondo la quale il Pentagono avrebbe usato il modello Claude di Anthropic per l'attacco all'Iran.
Permanendo il divieto di operare nella supply chain statunitense l’azienda informatica ha così deciso di intentare due distinte cause legali, una presso il Tribunale Federale della California e l'altra presso la Corte d'Appello Federale di Washington per chiedere di essere cancellata dalla lista nera della sicurezza nazionale.
Quello in atto è uno scontro senza precedenti. Il primo di questo genere, destinato a fare scuola. Il contenzioso tra creatori ed utilizzatori dell’IA solleva importanti interrogativi etici sull’uso dell’intelligenza artificiale per scopi differenti dal normale impiego. E solleva dubbi sulle potenzialità dual use dell’IA. Specie quando un governo ne impone o rimodula il suo raggio d’azione. Il Pentagono ritiene di poterne fare «qualsiasi uso legale». Mentre Anthropic sostiene che «queste azioni sono senza precedenti e illegali» e che «la Costituzione non consente al governo di esercitare il suo enorme potere per punire un'azienda per la sua libertà di parola».