
El desarrollador de inteligencia artificial Anthropic, CEO Dario Amodei, ha reanudado las negociaciones con Emil Michael, subsecretario del Departamento de Defensa de Estados Unidos responsable de investigación y ingeniería, con el objetivo de llegar a un acuerdo antes de que la compañía sea oficialmente clasificada como una empresa de riesgo en la cadena de suministro de defensa, preservando así su relación de colaboración militar. Según informan fuentes familiarizadas con el asunto citadas por el Financial Times, si Anthropic fuera oficialmente reconocida, sería excluida de la red de adquisiciones del ejército estadounidense.
La semana pasada, las negociaciones entre ambas partes se rompieron de repente. Según informes, Emil Michael, tras un enfrentamiento acalorado, acusó a Dario Amodei de ser un “mentiroso” y criticó que tuviera un “complejo de Dios”. El núcleo del conflicto fue una discrepancia fundamental sobre una cláusula de uso de datos: el Pentágono exigía que Anthropic eliminara una cláusula en el contrato que limitaba la “análisis de grandes volúmenes de datos adquiridos”, como condición previa para aceptar otras condiciones de Anthropic.
Amodei dejó claro en un memorando interno que dicha cláusula tenía como finalidad prevenir posibles monitoreos masivos internos, y que Anthropic la consideraba una línea roja intransigente, similar a la prohibición de usar IA en sistemas de armas autónomas letales. Posteriormente, el secretario de Defensa, Pete Hegseth, intensificó la presión, advirtiendo que si no se alcanzaba un acuerdo, se oficializaría la clasificación de Anthropic como una empresa de riesgo en la cadena de suministro.
A pesar de la crisis diplomática, los vínculos comerciales entre Anthropic y las fuerzas armadas de EE. UU. van mucho más allá de lo que el público conoce:
Este contexto hace que la postura dura del Pentágono sea sumamente contradictoria: por un lado, depende de Claude para realizar tareas militares críticas, y por otro, amenaza con clasificarlo como una amenaza a la seguridad, lo que ha generado gran preocupación en la industria.
El miércoles, varias organizaciones principales del sector tecnológico enviaron una carta pública conjunta a Trump, advirtiendo que clasificar a una empresa de IA estadounidense como riesgo en la cadena de suministro podría dañar fundamentalmente la posición de EE. UU. en la competencia global de IA contra China. Las organizaciones firmantes incluyen la Asociación de Software y Tecnología de la Información, TechNet, la Asociación de Computación y Comunicaciones, y la Alianza de Software Empresarial, con miembros que abarcan a Nvidia, Google (filial de Alphabet) y Apple, entre otras cientos de empresas tecnológicas estadounidenses.
La carta señala directamente que “considerar a una empresa tecnológica estadounidense como un adversario extranjero en lugar de un activo” obstaculizará la innovación y debilitará la competitividad global de la industria de IA de EE. UU.
¿Por qué Anthropic se niega a eliminar la cláusula de análisis de big data?
Anthropic la considera una protección clave contra la vigilancia masiva interna, y la equipara a una línea roja que prohíbe el uso de IA en sistemas de armas autónomas letales. Dario Amodei, en el memorando, dejó claro que eliminar esa cláusula equivaldría a permitir que el gobierno utilice Claude para realizar vigilancia masiva de ciudadanos, una postura intransigente para la compañía.
¿Cuáles serían las consecuencias reales si Anthropic fuera clasificada como empresa de riesgo en la cadena de suministro?
Ser oficialmente reconocida significaría que Anthropic sería excluida de las redes de adquisición del ejército y del gobierno federal, lo que podría implicar la terminación del contrato de 200 millones de dólares y la interrupción de relaciones comerciales con todos los contratistas gubernamentales que usan Claude. Para Anthropic, esto representaría no solo un golpe financiero, sino también un daño a su credibilidad en los mercados corporativos y gubernamentales.
¿Por qué Nvidia, Apple y otros gigantes tecnológicos están defendiendo a Anthropic?
Estas firmas no solo respaldan a Anthropic, sino que advierten que este tipo de precedentes podría poner en peligro toda la industria de IA en EE. UU. Si el gobierno puede, mediante órdenes ejecutivas, clasificar a cualquier empresa de IA nacional como una amenaza a la seguridad, se generaría un efecto de enfriamiento general en la industria, debilitando la confianza y la innovación de las empresas tecnológicas estadounidenses en el mercado global.