Resumen rápido: El Departamento de Justicia, en nombre del Departamento de Defensa y otras agencias, presentó un escrito en un tribunal federal de San Francisco defendiendo la decisión de marcar a Anthropic como un riesgo en la cadena de suministro. El gobierno sostiene que la medida no viola la Primera Enmienda y pide al juez que niegue la solicitud de Anthropic para reanudar sus contratos con el Pentágono mientras se resuelve la demanda.

Qué ocurrió

Anthropic está impugnando la decisión del Pentágono que le puso una etiqueta de riesgo en la cadena de suministro. Esa etiqueta puede impedir que empresas participen en contratos de defensa por preocupaciones sobre vulnerabilidades de seguridad. Si la designación se mantiene, Anthropic podría perder miles de millones en ingresos esperados este año.

Argumentos del gobierno

Los abogados del Departamento de Justicia dijeron que la etiqueta no viola la Primera Enmienda. En su escrito sostienen que la Constitución no autoriza a una empresa a imponer unilateralmente condiciones contractuales al gobierno. También afirmaron que las pérdidas comerciales que alega Anthropic no constituyen por sí solas un daño irreparable que justifique suspender la medida.

Motivos de seguridad

  • El gobierno afirma que hubo preocupaciones sobre la posible conducta futura de Anthropic si seguía teniendo acceso a sistemas técnicos y operativos militares.
  • El secretario de Defensa, Pete Hegseth, decidió razonablemente que el personal de Anthropic podría sabotear, introducir funciones no deseadas o subvertir la integridad de sistemas de seguridad nacional.
  • El escrito insiste en que los sistemas de IA son especialmente vulnerables a manipulaciones y que existe riesgo de que el modelo sea alterado antes o durante operaciones militares si la empresa considera que se han cruzado ciertas "líneas rojas" corporativas.

Qué dice Anthropic

Anthropic ha argumentado que sus modelos Claude no deberían usarse para una vigilancia amplia de ciudadanos y que no son lo bastante fiables para operar armas totalmente autónomas. La empresa quiere seguir trabajando con el gobierno hasta que el litigio llegue a una resolución, y pidió al tribunal una medida que le permita continuar con sus contratos.

Contexto legal y apoyo externo

Algunos expertos legales opinan que Anthropic puede tener un argumento fuerte de que la etiqueta equivale a una represalia ilegal. Pero en casos que involucran seguridad nacional, los tribunales suelen prestar atención a las preocupaciones del gobierno. En este conflicto, varios grupos han presentado escritos en apoyo de Anthropic, incluidos investigadores de IA, Microsoft, un sindicato de empleados federales y exmandos militares. No se han presentado escritos en apoyo del gobierno.

Impacto en el despliegue tecnológico

El Pentágono y otras agencias están trabajando para sustituir las herramientas de Anthropic por productos de empresas rivales en los próximos meses. Uno de los usos más importantes de Claude dentro del ejército se realiza a través de software de análisis de datos utilizado por la institución. Aun así, el gobierno admitió que no puede reemplazar inmediatamente el acceso de Anthropic en todos los sistemas clasificados y en operaciones de alto voltaje, y por eso está desplegando alternativas de Google, OpenAI y xAI.

Calendario procesal

  • La juez Rita Lin fijó una audiencia para el próximo martes para decidir si concede la medida provisional que pide Anthropic.
  • Anthropic tiene hasta el viernes para presentar una respuesta al escrito del gobierno.

En resumen, esto es un choque entre la necesidad del gobierno de minimizar riesgos en operaciones militares y la defensa de Anthropic sobre cómo pueden usarse sus modelos. La próxima semana habrá una decisión preliminar que marcará el ritmo de la disputa.