Un giudice statunitense ha temporaneamente bloccato il Pentagono dall'etichettare l'azienda di intelligenza artificiale Anthropic come rischio per la catena di approvvigionamento, concedendo un'ingiunzione alla società. La decisione del giudice Rita Lin, emessa nel tribunale federale di San Francisco, ha sospeso l'ordine del presidente Donald Trump di interrompere l'uso dei servizi di Anthropic da parte delle agenzie federali. L'azione legale nasce da un conflitto tra l'azienda e il governo sulle restrizioni di utilizzo delle tecnologie AI, in particolare per armi autonomi o sorveglianza domestica.
Il giudice ha criticato l'approccio del governo, sostenendo che non esistesse una base legale per considerare Anthropic un pericolo. Durante l'udienza, Lin ha messo in discussione la motivazione del Pentagono, sottolineando che l'azione sembrava più una vendetta per le negoziazioni andate male che una reale preoccupazione per la sicurezza. Anthropic aveva chiesto l'ingiunzione per proteggere i propri diritti costituzionali, accusando il governo di violare la quinta emendamento e di punire la sua posizione sulla sicurezza delle AI.
La controversia ha radici nelle negoziazioni tra l'azienda e il Dipartimento della Difesa, che avevano fallito a causa delle richieste di Anthropic di limitare l'uso delle sue tecnologie. Il Pentagono aveva imposto una sospensione totale dei contratti, costringendo le aziende a certificare di non utilizzare Claude. La decisione del giudice permette al governo di cercare altri fornitori, ma non obbliga l'uso di Anthropic. L'azienda ha già presentato un altro ricorso presso la corte d'appello di Washington.
L'episodio ha suscitato dibattiti sulla libertà di espressione e sulle responsabilità delle aziende tecnologiche. Anthropic, nota per il chatbot Claude, è stata la prima azienda americana a essere etichettata in questo modo, un provvedimento tradizionalmente riservato a potenze straniere. Il caso potrebbe avere implicazioni significative per il futuro delle collaborazioni tra settore privato e governo nell'ambito dell'IA.
Giudice blocca Pentagono: Anthropic non è rischio per catena approvvigionamento
AUTORE: Redazione Novrium //
TAG_RILEVATI:
Tecnologia Diritto Conflitti giuridici
FONTI_&_RIFERIMENTI:
- • https://www.independent.co.uk/news/world/americas/us-politics/anthropic-pentagon-trump-claude-b2946680.html
- • https://www.nbcnews.com/news/us-news/anthropic-trump-national-security-rcna265399
- • https://www.theguardian.com/us-news/2026/mar/26/anthropic-ai-pentagon
- • https://www.cnbc.com/2026/03/26/anthropic-pentagon-dod-claude-court-ruling.html