Il conflitto tra Anthropic e il Dipartimento della Difesa statunitense ha riportato sotto i riflettori una domanda semplice ma scomoda: a cosa possiamo permettere che serva l'intelligenza artificiale? La disputa è esplosa quando Anthropic ha fatto causa al Pentagono, sostenendo che l'esclusione dai lavori per il governo violava il primo emendamento. Dietro la faccenda legale ci sono limiti etici che l'azienda ha voluto imporre al proprio modello, come il divieto di impiegarlo per sorveglianza di massa interna o per armi letali completamente autonome.
Perché questa volta è diverso
Negli ultimi anni il rapporto tra Big Tech e militari è cambiato molto. Fattori politici, l'interesse a profitti stabili attraverso contratti governativi e la pressione per contrastare rivali tecnologici hanno spinto molte aziende ad avvicinarsi al settore della difesa.
Margaret Mitchell, ricercatrice nel campo dell'IA, l'ha riassunto senza fronzoli: se cercate eroi che rifiutano la guerra, non li troverete qui.
Il passato recente: dalle proteste ai contratti
Non molto tempo fa lavorare con l'esercito su tecnologie potenzialmente dannose era considerato una linea rossa. Nel 2018 migliaia di dipendenti Google protestarono contro Project Maven, un programma per analizzare filmati di droni per il Dipartimento della Difesa. Allora Google decise di non rinnovare il progetto e redasse linee guida che vietavano tecnologie in grado di causare danni diretti.
Ma nel tempo la posizione di molte aziende è cambiata:
- Google ha limitato l'attivismo interno, ha rimosso alcune frasi restrittive dalle sue policy e ha siglato numerosi accordi che permettono l'uso militare dei suoi prodotti. Recentemente ha annunciato di mettere a disposizione il suo sistema di intelligenza artificiale per progetti governativi non classificati.
- OpenAI aveva imposto divieti sull'uso militare dei suoi modelli prima del 2024. Da allora ha avviato rapporti più stretti con strutture legate alla difesa, con dirigenti coinvolti anche in programmi militari di innovazione. Insieme a Google, Anthropic e altre startup ha firmato un contratto con il Dipartimento della Difesa dal valore potenzialmente elevato.
- Palantir e Anduril hanno fatto della collaborazione con il Pentagono un elemento centrale del loro modello di business. Palantir, in particolare, è intervenuta su progetti legati all'intelligence militare già nella prima parte del decennio scorso.
Dopo che Google lasciò Project Maven, quel lavoro passò ad altre aziende. Oggi, secondo reportage, il nome Maven è associato a sistemi classificati che consentono, tra l'altro, l'accesso ad alcuni modelli di Anthropic.
La posizione di Anthropic e Dario Amodei
Nonostante lo scontro pubblico con il Pentagono, il cofondatore e amministratore delegato di Anthropic, Dario Amodei, ha più volte sottolineato che l'azienda e il Dipartimento della Difesa condividono molti obiettivi. Amodei ha espresso preoccupazioni reali sui rischi dell'IA, come la possibile creazione di armi biologiche o l'uso malevolo da parte di potenze straniere, ma ha anche sostenuto che le democrazie dovrebbero disporre delle tecnologie migliori per difendersi dagli avversari autoritari.
Nel suo saggio e nei messaggi pubblici Amodei ha inoltre evidenziato un altro rischio: la concentrazione del controllo su sistemi critici nelle mani di pochi soggetti che potrebbero attivare armi autonome senza adeguate garanzie.
Quali limiti ha posto Anthropic
- Anthropic ha cercato di vietare l'uso dei suoi modelli per sorveglianza interna di massa.
- Ha voluto impedire l'uso per armi completamente autonome che prendono decisioni letali senza controllo umano.
Allo stesso tempo, l'azienda ha creato versioni del suo prodotto destinate al settore governativo che, secondo la sua denuncia, sono meno rigide rispetto alle versioni civili. Nel ricorso in California Anthropic afferma che Claude Gov rifiuta meno richieste che sarebbero vietate per clienti civili, consentendo applicazioni come la gestione di documenti classificati, operazioni militari e analisi di minacce.
Cosa è andato storto e le conseguenze
La tensione è salita al punto che Anthropic ha citato in giudizio il Dipartimento della Difesa, sostenendo che l'esclusione dall'accesso ai contratti governativi lede i suoi diritti costituzionali. La questione solleva dubbi pratici ed etici: fino a che punto una società dovrebbe controllare l'uso dei propri modelli e quando gli interessi di sicurezza nazionale prevalgono sulle sue scelte etiche?
Secondo reportage, il governo avrebbe usato il modello di Anthropic in operazioni di selezione e analisi di obiettivi in una campagna contro elementi in Iran. Anthropic ha però dichiarato di non considerarsi coinvolta nelle decisioni operative e ha ribadito di supportare le forze sul campo con tecnologia, entro limiti che ritiene essenziali.
Amodei ha detto in un'intervista che la maggior parte dei casi d'uso richiesti dal Dipartimento della Difesa sono accettabili per l'azienda. Ha quantificato la cosa in modo diretto: in pratica il 98 o 99 percento dei casi sono OK, tranne due.
Che cosa ci dice questa vicenda
Il caso Anthropic-Pentagono non è solo una battaglia legale. È l'esempio più chiaro di come l'intera industria tecnologica abbia spostato il suo baricentro verso relazioni più strette con lo Stato e con il settore della difesa. Aziende che una volta si opponevano all'uso militare delle loro tecnologie ora discutono apertamente di contratti e collaborazioni. Il risultato è un terreno morale più sfumato e una nuova domanda per lavoratori, consumatori e legislatori: quali limiti vogliamo imporre all'uso militare dell'intelligenza artificiale?
Non è una domanda solo tecnica. È una scelta politica e sociale che, per ora, si sta giocando in aula e nei comunicati aziendali.