Anthropic reanuda las negociaciones con el Pentágono, la etiqueta de riesgo en la cadena de suministro amenaza la cooperación militar en IA

MarketWhisper

Anthropic reanuda negociaciones con el Pentágono

El desarrollador de inteligencia artificial Anthropic, CEO Dario Amodei, ha reanudado las negociaciones con Emil Michael, subsecretario del Departamento de Defensa de Estados Unidos responsable de investigación y ingeniería, con el objetivo de llegar a un acuerdo antes de que la compañía sea oficialmente clasificada como una empresa de riesgo en la cadena de suministro de defensa, preservando así su relación de colaboración militar. Según informan fuentes familiarizadas con el asunto citadas por el Financial Times, si Anthropic fuera oficialmente reconocida, sería excluida de la red de adquisiciones del ejército estadounidense.

La chispa que rompió las negociaciones: las cláusulas de big data se convirtieron en una línea roja infranqueable

La semana pasada, las negociaciones entre ambas partes se rompieron de repente. Según informes, Emil Michael, tras un enfrentamiento acalorado, acusó a Dario Amodei de ser un “mentiroso” y criticó que tuviera un “complejo de Dios”. El núcleo del conflicto fue una discrepancia fundamental sobre una cláusula de uso de datos: el Pentágono exigía que Anthropic eliminara una cláusula en el contrato que limitaba la “análisis de grandes volúmenes de datos adquiridos”, como condición previa para aceptar otras condiciones de Anthropic.

Amodei dejó claro en un memorando interno que dicha cláusula tenía como finalidad prevenir posibles monitoreos masivos internos, y que Anthropic la consideraba una línea roja intransigente, similar a la prohibición de usar IA en sistemas de armas autónomas letales. Posteriormente, el secretario de Defensa, Pete Hegseth, intensificó la presión, advirtiendo que si no se alcanzaba un acuerdo, se oficializaría la clasificación de Anthropic como una empresa de riesgo en la cadena de suministro.

El despliegue militar de Claude: dependencia profunda tras un contrato de 200 millones de dólares

A pesar de la crisis diplomática, los vínculos comerciales entre Anthropic y las fuerzas armadas de EE. UU. van mucho más allá de lo que el público conoce:

  • Contrato confidencial de 200 millones de dólares: firmado en julio de 2025, que convirtió a Claude en el primer modelo de IA comercial en ingresar en entornos confidenciales y en agencias de seguridad nacional.
  • Apoyo en bombardeos en Irán: las fuerzas armadas estadounidenses usaron el modelo Claude para apoyar operaciones de bombardeo importantes en Irán, incluso horas después de que Trump ordenara a las agencias federales dejar de usar los sistemas de Anthropic.
  • Implementaciones confidenciales extensas: Claude ya opera en múltiples escenarios de inteligencia clasificada, aunque su alcance completo aún no ha sido divulgado públicamente.

Este contexto hace que la postura dura del Pentágono sea sumamente contradictoria: por un lado, depende de Claude para realizar tareas militares críticas, y por otro, amenaza con clasificarlo como una amenaza a la seguridad, lo que ha generado gran preocupación en la industria.

Un frente unido de la industria tecnológica: Nvidia, Apple y otros envían carta conjunta a Trump

El miércoles, varias organizaciones principales del sector tecnológico enviaron una carta pública conjunta a Trump, advirtiendo que clasificar a una empresa de IA estadounidense como riesgo en la cadena de suministro podría dañar fundamentalmente la posición de EE. UU. en la competencia global de IA contra China. Las organizaciones firmantes incluyen la Asociación de Software y Tecnología de la Información, TechNet, la Asociación de Computación y Comunicaciones, y la Alianza de Software Empresarial, con miembros que abarcan a Nvidia, Google (filial de Alphabet) y Apple, entre otras cientos de empresas tecnológicas estadounidenses.

La carta señala directamente que “considerar a una empresa tecnológica estadounidense como un adversario extranjero en lugar de un activo” obstaculizará la innovación y debilitará la competitividad global de la industria de IA de EE. UU.

Preguntas frecuentes

¿Por qué Anthropic se niega a eliminar la cláusula de análisis de big data?
Anthropic la considera una protección clave contra la vigilancia masiva interna, y la equipara a una línea roja que prohíbe el uso de IA en sistemas de armas autónomas letales. Dario Amodei, en el memorando, dejó claro que eliminar esa cláusula equivaldría a permitir que el gobierno utilice Claude para realizar vigilancia masiva de ciudadanos, una postura intransigente para la compañía.

¿Cuáles serían las consecuencias reales si Anthropic fuera clasificada como empresa de riesgo en la cadena de suministro?
Ser oficialmente reconocida significaría que Anthropic sería excluida de las redes de adquisición del ejército y del gobierno federal, lo que podría implicar la terminación del contrato de 200 millones de dólares y la interrupción de relaciones comerciales con todos los contratistas gubernamentales que usan Claude. Para Anthropic, esto representaría no solo un golpe financiero, sino también un daño a su credibilidad en los mercados corporativos y gubernamentales.

¿Por qué Nvidia, Apple y otros gigantes tecnológicos están defendiendo a Anthropic?
Estas firmas no solo respaldan a Anthropic, sino que advierten que este tipo de precedentes podría poner en peligro toda la industria de IA en EE. UU. Si el gobierno puede, mediante órdenes ejecutivas, clasificar a cualquier empresa de IA nacional como una amenaza a la seguridad, se generaría un efecto de enfriamiento general en la industria, debilitando la confianza y la innovación de las empresas tecnológicas estadounidenses en el mercado global.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios