Vittoria parziale per Anthropic

Un giudice federale della California ha deciso che Anthropic merita una sospensione temporanea della designazione che il Pentagono le aveva imposto come «rischio per la catena di approvvigionamento». La misura è una injunction preliminare, cioè un blocco provvisorio mentre il processo continua. Il provvedimento entrerà in vigore dopo sette giorni.

Perché il giudice è intervenuto

La giudice Rita F. Lin ha scritto che l'amministrazione ha etichettato Anthropic per il suo «modo ostile attraverso la stampa». Secondo la giudice, punire l'azienda per aver portato all'attenzione pubblica la posizione del governo sui contratti è una ritorsione illegale contro la libertà di espressione garantita dal Primo Emendamento.

La posizione di Anthropic

La portavoce di Anthropic, Danielle Cohen, ha detto che l'azienda è grata alla corte per la rapidità e che la decisione indica una probabile vittoria sul merito. Ha aggiunto che, nonostante la causa, Anthropic vuole lavorare con il governo per assicurare un'intelligenza artificiale sicura e affidabile per tutti gli americani.

Il nocciolo della disputa

La controversia nasce da un memo del 9 gennaio del Segretario alla Difesa Pete Hegseth, che chiedeva di inserire nel giro di 180 giorni una clausola sul «qualsiasi uso legale» nei contratti per servizi di IA. Quel memo ha investito fornitori come Anthropic, OpenAI, xAI e Google.

Anthropic aveva messo sul tavolo due linee rosse: niente uso per la sorveglianza di massa interna e niente uso per armi autonome letali, cioè sistemi che possono uccidere senza coinvolgere un essere umano nella decisione. Le trattative con il Pentagono sono durate settimane e sono esplose in una serie di eventi pubblici e legali che hanno coinvolto insulti sui social, la designazione come rischio di catena di approvvigionamento, altre aziende pronte a prendere accordi e infine la causa in tribunale.

Impatto economico e preoccupazioni

Anthropic sostiene che la designazione ha già danneggiato il suo business. Nei documenti di causa l'azienda afferma di aver ricevuto numerose richieste da partner confusi e preoccupati sulla possibilità di continuare a collaborare. Decine di società avrebbero contattato Anthropic per capire i rischi di interrompere i rapporti. Il danno potenziale sui ricavi è stato stimato, dall'azienda, tra alcune centinaia di milioni e diversi miliardi.

Una designazione rara

È insolito che una società statunitense venga indicata come rischio di catena di approvvigionamento, visto che questa etichetta è generalmente riservata a imprese straniere potenzialmente legate a stati avversari. Per questo la decisione ha sollevato critiche bipartisan e timori che dissentire con l'amministrazione possa comportare ritorsioni eccessive per qualsiasi impresa.

Il dibattito in aula

Durante l'udienza la giudice Lin ha sottolineato che non spetta a lei decidere quale parte abbia ragione sulla questione etica e tecnica: Anthropic sostiene che il suo prodotto Claude non debba essere impiegato per sorveglianza di massa o armi letali, mentre il Dipartimento della Guerra sostiene che i comandanti militari debbano decidere cosa sia sicuro.

La giudice ha però chiesto se il governo fosse andato oltre i limiti legali quando ha comunicato la sua posizione al pubblico e ai contraenti. Ha anche messo in discussione un post pubblico del Segretario Hegseth che, secondo Anthropic, ha creato molta confusione dichiarando che nessun appaltatore o fornitore che lavora con l'esercito potrebbe avere rapporti commerciali con Anthropic.

Domande sul rischio operativo

Tra le questioni sollevate in aula c'è stata anche la preoccupazione del Dipartimento della Guerra che Anthropic potesse, in teoria, disabilitare la sua tecnologia o modificarne il comportamento durante operazioni belliche, un rischio che il Pentagono ha definito inaccettabile. La giudice ha chiesto quale prova ci fosse che Anthropic mantenesse accesso o controllo su Claude dopo averlo consegnato al governo.

Termini di rapporto per i contraenti

La corte ha interrogato il Dipartimento sulla possibilità di terminare contratti di fornitori che usano la tecnologia di Anthropic. Un rappresentante del Dipartimento ha risposto che, in linea generale, per lavori non legati al Dipartimento della Guerra non dovrebbe esserci terminazione automatica. Su scenari più complessi, come fornitori IT che lavorano per il Dipartimento su sistemi non sensibili, la risposta non è stata chiara.

La giudice ha citato anche un amicus brief che parlava di un tentativo di «omicidio societario». Lei ha riformulato con maggiore misura, osservando che la vicenda appare come un tentativo di danneggiare gravemente Anthropic.

Cosa succederà dopo

  • Effetto immediato: la sospensione entra in vigore tra sette giorni e impedisce al governo di applicare la designazione finché il tribunale non decide definitivamente.
  • Tempistiche: la sentenza finale potrebbe richiedere settimane o mesi.
  • Scenari futuri: il caso affronterà questioni di libertà di espressione, autorità amministrativa e limiti delle decisioni governative sui fornitori tecnologici.

Per ora Anthropic può respirare un po' più a lungo, mentre il tribunale controllerà se la designazione sia stata una risposta legittima della difesa nazionale o una punizione per aver sollevato preoccupazioni pubbliche.