Según lo revelado por The Wall Street Journal, el Comando Central de EE. UU. (CENTCOM) utilizó el sistema Claude AI de Anthropic en la operación de bombardeo en Irán, proporcionando análisis de inteligencia, identificación de objetivos y simulaciones de campo de batalla — sin embargo, esto ocurrió solo unas horas después de que Trump firmara la orden ejecutiva para prohibir Anthropic. Este incidente destaca que la IA ya está profundamente integrada en la infraestructura de defensa, y que incluso una orden presidencial no puede cortarla de inmediato. Anthropic fue excluida por el Pentágono por negarse a levantar restricciones sobre armas autónomas y vigilancia masiva, y OpenAI rápidamente asumió el control.
(Resumen previo: ¡Trump quiere prohibir completamente Anthropic! Se niegan a modificar Claude para evitar “restricciones de asesinato”, y OpenAI sorprendentemente los apoya)
(Información adicional: ¡El Pentágono exige a Anthropic que abra la puerta a uso militar de Claude! “De lo contrario, cancelamos el contrato y nos vamos”)
Índice del artículo
Toggle
El viernes pasado, cuando la administración Trump ordenó detener el uso de la tecnología de Anthropic y el Departamento de Defensa la incluyó en la lista de “riesgos en la cadena de suministro”, las operaciones militares en Irán continuaron dependiendo de Claude AI. Esta aparente contradicción revela una realidad inquietante: la penetración de la IA en los sistemas militares ha superado el alcance de las órdenes ejecutivas para detenerla en corto plazo.
Según fuentes citadas por The Wall Street Journal, en la operación “Furia Épica” (Operation Epic Fury) en Irán, el Comando Central de EE. UU. continuó usando Claude para tareas clave — incluyendo análisis de inteligencia, identificación de objetivos y simulaciones de escenario de combate.
El año pasado, Anthropic firmó un contrato prototipo de dos años y hasta 200 millones de dólares con el Pentágono, en colaboración con Palantir y Amazon Web Services. Claude fue el primer modelo de IA comercial autorizado para operar en las redes confidenciales del Pentágono, con aplicaciones que van desde pruebas de armas hasta comunicaciones en tiempo real en el campo. Se reporta que anteriormente, en enero de este año, también apoyó en las operaciones del presidente venezolano Maduro.
El conflicto central radica en que el Pentágono exige a Anthropic eliminar las restricciones en el contrato, permitiendo que Claude sea usado para “todos los usos legales”; pero el CEO de Anthropic, Dario Amodei, se niega a ceder, manteniendo dos principios éticos fundamentales:
Amodei declaró que la compañía se opone a que la IA sea utilizada para “vigilancia masiva interna” y “armas totalmente autónomas”, enfatizando que las decisiones militares deben ser humanas, no algoritmos. En su declaración afirmó: “No podemos aceptar ciegamente sus demandas”.
El secretario de Defensa, Pete Hegseth, rápidamente incluyó a Anthropic en la lista de “riesgos en la cadena de suministro”, y Trump ordenó directamente a todas las agencias federales “detener inmediatamente el uso” de la tecnología de Anthropic — aunque el Departamento de Defensa y otros sectores clave tienen un período de transición de seis meses. Anthropic anunció que desafiará esta decisión en los tribunales, alegando que carece de fundamento legal, y advirtió que esto establecerá un peligroso precedente para “cualquier empresa estadounidense que negocie con el gobierno”.
A pocas horas de que Trump anunciara la prohibición de Anthropic, OpenAI anunció que había llegado a un acuerdo con el Departamento de Defensa para desplegar su tecnología de IA en redes militares confidenciales.
Cabe destacar que, durante toda la controversia, el CEO de OpenAI, Sam Altman, expresó públicamente su apoyo a Anthropic en una entrevista en CNBC, calificándola como “una entidad confiable en seguridad”. Aunque finalmente OpenAI tomó el contrato militar que Anthropic se vio obligado a abandonar, esta interacción revela la delicada tensión entre intereses comerciales y éticos en Silicon Valley.
Lo más inquietante de este incidente no es solo la lucha política entre Trump y Anthropic, sino una realidad más profunda: cuando los sistemas de IA están ya profundamente integrados en cada aspecto del ciclo militar, desde análisis de inteligencia hasta identificación de objetivos, cualquier orden de “desconectar” no puede implementarse en corto plazo.
Para las comunidades de criptomonedas y Web3, este caso ofrece una advertencia: tanto en IA como en blockchain, cuando la tecnología penetra en los centros neurálgicos del gobierno y la defensa, los ideales de “descentralización” deben enfrentarse a la realidad del “voluntad del Estado”. La experiencia de Anthropic muestra que mantener la ética tecnológica puede tener un costo: perder a los clientes más grandes.