Microsoft tiene hasta 5 mil millones de dólares invertidos en Anthropic, mientras que Anthropic se ha comprometido a comprar 30 mil millones de dólares en capacidad de Azure bajo la asociación. Ese contexto hace que su decisión de presentar un amicus curiae en apoyo a la demanda de Anthropic contra el Departamento de Defensa de EE. UU. parezca menos altruismo y más autodefensa financiera. El documento, presentado el 10 de marzo en San Francisco, argumenta que una orden de restricción temporal que bloquee la aplicación de la designación de “riesgo en la cadena de suministro” del Pentágono serviría al interés público. El propio Microsoft es un importante contratista del DoD, y esa designación pone en riesgo sus propios productos. El Secretario de Defensa, Pete Hegseth, ordenó que ningún contratista, proveedor o socio que haga negocios con las fuerzas armadas de EE. UU. pueda realizar actividades comerciales con Anthropic—una medida que podría abarcar productos de Microsoft como Copilot y Azure, que incluyen soporte para Claude.
El documento destaca una contradicción procesal que ha recibido poca atención en la cobertura principal: El Departamento de Defensa se dio un período de transición de seis meses para dejar de usar las herramientas de Anthropic, pero aplicó la designación a los contratistas de inmediato y sin un plazo equivalente. Los abogados de Microsoft señalaron esto directamente, indicando que los proveedores tecnológicos ahora deben apresurarse a auditar, rediseñar y volver a adquirir productos en un plazo que el gobierno no se impuso a sí mismo. Microsoft también advirtió sobre un aspecto crucial en la disputa legal. La autoridad invocada para el riesgo en la cadena de suministro—10 U.S.C. § 3252—ha sido históricamente reservada para adversarios extranjeros. Solo una designación de este tipo ha sido emitida públicamente bajo leyes relacionadas, y fue contra Acronis AG, una firma suiza de software con vínculos rusos. Usarla contra una startup de IA en San Francisco es, como dijo Microsoft, “sin precedentes”.
El argumento más contundente del documento es estructural. Si una disputa contractual entre una agencia y una empresa puede activar una lista negra de seguridad nacional, entonces cada empresa que hace negocios con el gobierno federal acaba de heredar una nueva categoría de riesgo existencial. Los abogados de Microsoft describieron un modelo industrial basado en servicios interconectados, donde un componente prohibido puede paralizar líneas completas de productos. Hay una ironía difícil de ignorar. Microsoft es simultáneamente el mayor respaldo de OpenAI—con inversiones valoradas en aproximadamente 135 mil millones de dólares—y ahora uno de los defensores más ruidosos de Anthropic en los tribunales. Por su parte, OpenAI se apresuró a firmar un acuerdo con el DoD horas después de que la lista negra de Anthropic fuera publicada, una acción que generó reacciones internas adversas y llevó al CEO de OpenAI, Sam Altman, a reconocer públicamente que el anuncio “parecía oportunista y descuidado”. Microsoft respaldó a ambos.
Aquí una publicación interna re-publicada:
Hemos estado trabajando con el DoW para hacer algunas adiciones a nuestro acuerdo y dejar muy claras nuestras principios.
- Modificaremos nuestro acuerdo para agregar este lenguaje, además de todo lo demás:
"• De acuerdo con las leyes aplicables,…
— Sam Altman (@sama) 3 de marzo de 2026
El documento no llega a respaldar las posiciones específicas de Anthropic sobre la seguridad de la IA en armas autónomas y vigilancia masiva—las dos líneas rojas que desencadenaron el enfrentamiento. En cambio, enmarca el caso en términos que cualquier contratista gubernamental puede entender: debido procesal, transiciones ordenadas y los efectos de usar la ley de adquisiciones como arma en desacuerdos políticos. La petición de Microsoft es una orden de restricción temporal, no un veredicto. La compañía quiere que el tiempo se ralentice lo suficiente para que las partes puedan negociar—y para que sus propios productos puedan seguir siendo desplegados legalmente mientras tanto. Lo que está en juego va más allá del contrato de una sola empresa. Si los tribunales permiten que la medida del Pentágono se mantenga, entonces cada empresa de IA que venda al gobierno acaba de aprender que las medidas de seguridad pueden ser reinterpretadas como amenazas a la seguridad nacional. El amicus de Microsoft deja claro que esa lección no pasa desapercibida en la industria tecnológica en general—y que la compañía no está dispuesta a aprenderla en silencio.