Según un informe exclusivo de Axios, el Pentágono está considerando terminar su colaboración con Anthropic, ya que esta compañía de IA insiste en poner límites al uso del modelo Claude por parte del ejército, rechazando abrir las áreas de monitoreo masivo y armas completamente autónomas. Es importante destacar que OpenAI, Google y xAI ya han aceptado los términos de “todo uso legal” del Pentágono, convirtiendo a Anthropic en la única de los cuatro principales laboratorios de IA que se mantiene firme en sus posiciones.
(Resumen previo: La nueva ambición de Elon Musk, “Base Lunar Alpha”: construir una súper fábrica de IA en la Luna y lanzarla hacia el sistema solar con un gigantesco catapulta)
(Información adicional: ¡Pánico por IA y desempleo! Ejecutivos de Microsoft advierten que la mayoría de los trabajadores de cuello blanco serán reemplazados por automatización en los próximos 12-18 meses)
Índice del artículo
Según una fuente de alto nivel del gobierno citada por Axios, el Pentágono está instando a los cuatro principales laboratorios de IA (OpenAI, Google, xAI y Anthropic) a permitir que el ejército utilice sus herramientas para “todo uso legal” (all lawful purposes), incluyendo desarrollo de armas, recopilación de inteligencia y operaciones en el campo de batalla, en los ámbitos más sensibles.
Esta exigencia proviene del Memorando de Estrategia de IA del Departamento de Defensa publicado el 9 de enero de este año. El documento indica claramente que, en un plazo de 180 días, se incorporará la cláusula de “todo uso legal” en todos los contratos de adquisición de IA, lo que significa que los estándares para el uso militar de la IA se equipararán a los del uso de la fuerza convencional, sin requerir controles humanos “significativos”.
Sin embargo, tras meses de negociaciones difíciles, Anthropic no ha aceptado aún estos términos, y el Pentágono está “cansado” de ello. Según la fuente:
Todo está sobre la mesa, incluyendo reducir o incluso terminar completamente la colaboración con Anthropic. Pero si consideramos que esa es la decisión correcta, debemos encontrar un reemplazo adecuado para ellos.
Frente a la presión del Pentágono, Anthropic mantiene dos límites infranqueables:
El alto funcionario admitió que existe una considerable ambigüedad sobre qué escenarios entran en estas prohibiciones y cuáles no. Además, negociar caso por caso cada uso específico con el Pentágono, o que Claude rechace accidentalmente ciertas aplicaciones en la práctica, sería “invial”.
Cabe destacar que el año pasado, Anthropic firmó un contrato prototipo de hasta 200 millones de dólares por dos años con el Pentágono, y Claude se convirtió en el primer modelo comercial autorizado para operar en la red confidencial del Departamento de Defensa, en tareas que van desde pruebas de armas hasta comunicaciones en combate en tiempo real.
La crisis de este acuerdo se remonta a un incidente ocurrido a principios de este mes. Según Axios, el 13 de febrero, durante una operación militar en la que EE. UU. arrestó al expresidente venezolano Nicolás Maduro, se desplegó Claude a través de la plataforma de Palantir para procesar datos de inteligencia en tiempo real.
El informe señala que, tras enterarse, altos ejecutivos de Anthropic contactaron a Palantir para preguntar si Claude había sido utilizado en esa operación, “con un tono que sugería que no estaban de acuerdo con ese uso, ya que la operación involucraba ataques con energía cinética (armas penetrantes no explosivas)”.
El Pentágono negó que Claude hubiera sido utilizado en la operación, lo que generó preocupación interna en el departamento.
Un portavoz de Anthropic negó rotundamente, afirmando que discutieron con el Departamento de Defensa sobre usos militares específicos.
En contraste con Anthropic, las otras tres principales laboratorios de IA mostraron mayor flexibilidad ante las demandas del Pentágono:
Se sabe que al menos una de estas empresas ha aceptado completamente la cláusula de “todo uso legal”, y las otras dos han mostrado mayor flexibilidad que Anthropic. Esto posiciona a Anthropic como el único jugador que mantiene una postura de seguridad estricta en esta carrera armamentística de IA militar, aunque corre el riesgo de ser marginada.
La extensión final de los productos de IA es para servir a los Estados, y en el ámbito militar, esa línea es inevitable.