Breve versione per chi scorre veloce: il governo federale dice che Anthropic non può essere considerata affidabile per l'uso nei sistemi militari, ha applicato un'etichetta di rischio che può escludere l'azienda dai contratti della Difesa, e ora Anthropic ha fatto causa. Il Dipartimento di Giustizia chiede al giudice di respingere la richiesta dell'azienda per riprendere subito i rapporti con il Pentagono.

Che cosa è successo

Anthropic, la società che sviluppa i modelli AI chiamati Claude, è stata etichettata dal governo come un rischio nella catena di fornitura. Quella etichetta può impedire a un'azienda di lavorare con il Dipartimento della Difesa. Anthropic ha risposto con azioni legali, sostenendo che il governo ha esagerato e che la decisione lelegherà le mani sul suo business.

La posizione del governo

I legali del Dipartimento di Giustizia, parlando per il Dipartimento della Difesa e altre agenzie, hanno scritto in tribunale a San Francisco che la designazione non viola il Primo Emendamento. Hanno detto che l'azienda non può stabilire da sola le condizioni contrattuali con il governo e che le preoccupazioni della Difesa riguardano il comportamento futuro di Anthropic, non l'attività espressiva.

Argomenti principali del governo

  • Rischio operativo: i funzionari temono che se Anthropic mantenesse l'accesso ai sistemi militari, il personale dell'azienda potrebbe sabotare oppure alterare il comportamento dei modelli in momenti critici.
  • Vulnerabilità dei sistemi AI: il governo sottolinea che i sistemi di intelligenza artificiale sono soggetti a manipolazioni e che questo introduce un rischio inaccettabile nelle catene di approvvigionamento della Difesa.
  • Nessuna censura dell'espressione: l'argomento giuridico ufficiale è che non è stata limitata l'attività espressiva di Anthropic, ma solo regolato l'accesso a infrastrutture sensibili.

La posizione di Anthropic

Anthropic sostiene che l'etichetta è un abuso di potere che gli impedirà di partecipare a contratti della Difesa e potrebbe tradursi in perdite di entrate per miliardi di dollari quest'anno. L'azienda chiede che il blocco venga sospeso fino alla risoluzione della causa. Una giudice federale, Rita Lin, ha fissato un'udienza in cui deciderà se concedere o meno questa richiesta.

Impatto pratico e piani del Pentagono

Nel frattempo il Dipartimento della Difesa sta cercando alternative per sostituire gli strumenti di Anthropic con prodotti di altre grandi aziende tecnologiche. In alcune applicazioni militari, Claude era integrato in software di analisi dei dati usati dal personale militare per supportare operazioni complesse. Il governo ha affermato che non può aspettare troppo a lungo prima di adottare altri modelli disponibili sul mercato.

Chi sta schierandosi da che parte

Diverse organizzazioni e gruppi legali, tra cui ricercatori nel campo dell'AI, Microsoft, un sindacato di dipendenti federali e ex leader militari, hanno depositato memorie di supporto per Anthropic. Secondo il dossier del governo, non sono arrivate memorie a favore del Dipartimento.

Cosa succede adesso

Il governo ha chiesto al giudice di rifiutare la richiesta urgente di Anthropic, sostenendo che la perdita di affari non costituisce un danno irreparabile sufficiente. Anthropic ha tempo fino a venerdì per presentare una risposta. L'udienza è stata programmata per la settimana prossima a San Francisco.

In poche parole: è una battaglia legale che mescola sicurezza nazionale, rischi tecnici degli AI e miliardi di dollari in potenziali contratti. Presto si capirà se il governo manterrà la stretta o se l'azienda riavrà l'accesso alle piattaforme militari.