La Casa Blanca desafía a Anthropic! Apertura total a Claude militar "de lo contrario, rescisión y salida"

動區BlockTempo

Según un informe exclusivo de Axios, el Pentágono está considerando terminar su colaboración con Anthropic, ya que esta compañía de IA insiste en poner límites al uso del modelo Claude por parte del ejército, rechazando abrir las áreas de monitoreo masivo y armas completamente autónomas. Es importante destacar que OpenAI, Google y xAI ya han aceptado los términos de “todo uso legal” del Pentágono, convirtiendo a Anthropic en la única de los cuatro principales laboratorios de IA que se mantiene firme en sus posiciones.

(Resumen previo: La nueva ambición de Elon Musk, “Base Lunar Alpha”: construir una súper fábrica de IA en la Luna y lanzarla hacia el sistema solar con un gigantesco catapulta)

(Información adicional: ¡Pánico por IA y desempleo! Ejecutivos de Microsoft advierten que la mayoría de los trabajadores de cuello blanco serán reemplazados por automatización en los próximos 12-18 meses)

Índice del artículo

  • Dos líneas rojas de Anthropic: prohibición de monitoreo masivo y armas autónomas
  • La acción sorpresa de Maduro enciende la chispa
  • Las otras tres grandes empresas “sin objeciones”

Según una fuente de alto nivel del gobierno citada por Axios, el Pentágono está instando a los cuatro principales laboratorios de IA (OpenAI, Google, xAI y Anthropic) a permitir que el ejército utilice sus herramientas para “todo uso legal” (all lawful purposes), incluyendo desarrollo de armas, recopilación de inteligencia y operaciones en el campo de batalla, en los ámbitos más sensibles.

Esta exigencia proviene del Memorando de Estrategia de IA del Departamento de Defensa publicado el 9 de enero de este año. El documento indica claramente que, en un plazo de 180 días, se incorporará la cláusula de “todo uso legal” en todos los contratos de adquisición de IA, lo que significa que los estándares para el uso militar de la IA se equipararán a los del uso de la fuerza convencional, sin requerir controles humanos “significativos”.

Sin embargo, tras meses de negociaciones difíciles, Anthropic no ha aceptado aún estos términos, y el Pentágono está “cansado” de ello. Según la fuente:

Todo está sobre la mesa, incluyendo reducir o incluso terminar completamente la colaboración con Anthropic. Pero si consideramos que esa es la decisión correcta, debemos encontrar un reemplazo adecuado para ellos.

Dos líneas rojas de Anthropic: prohibición de monitoreo masivo y armas autónomas

Frente a la presión del Pentágono, Anthropic mantiene dos límites infranqueables:

  • Prohibido el monitoreo masivo de ciudadanos estadounidenses
  • Prohibido el uso de sistemas de armas completamente autónomas (es decir, armas letales automáticas sin intervención humana)

El alto funcionario admitió que existe una considerable ambigüedad sobre qué escenarios entran en estas prohibiciones y cuáles no. Además, negociar caso por caso cada uso específico con el Pentágono, o que Claude rechace accidentalmente ciertas aplicaciones en la práctica, sería “invial”.

Cabe destacar que el año pasado, Anthropic firmó un contrato prototipo de hasta 200 millones de dólares por dos años con el Pentágono, y Claude se convirtió en el primer modelo comercial autorizado para operar en la red confidencial del Departamento de Defensa, en tareas que van desde pruebas de armas hasta comunicaciones en combate en tiempo real.

La acción sorpresa de Maduro enciende la chispa

La crisis de este acuerdo se remonta a un incidente ocurrido a principios de este mes. Según Axios, el 13 de febrero, durante una operación militar en la que EE. UU. arrestó al expresidente venezolano Nicolás Maduro, se desplegó Claude a través de la plataforma de Palantir para procesar datos de inteligencia en tiempo real.

El informe señala que, tras enterarse, altos ejecutivos de Anthropic contactaron a Palantir para preguntar si Claude había sido utilizado en esa operación, “con un tono que sugería que no estaban de acuerdo con ese uso, ya que la operación involucraba ataques con energía cinética (armas penetrantes no explosivas)”.

El Pentágono negó que Claude hubiera sido utilizado en la operación, lo que generó preocupación interna en el departamento.

Un portavoz de Anthropic negó rotundamente, afirmando que discutieron con el Departamento de Defensa sobre usos militares específicos.

Las otras tres grandes empresas “sin objeciones”

En contraste con Anthropic, las otras tres principales laboratorios de IA mostraron mayor flexibilidad ante las demandas del Pentágono:

  • OpenAI (ChatGPT) ya aceptó eliminar las barreras de seguridad habituales para servir al Pentágono
  • Google (Gemini) mostró una actitud proactiva de cooperación
  • xAI (Grok) también expresó disposición a colaborar

Se sabe que al menos una de estas empresas ha aceptado completamente la cláusula de “todo uso legal”, y las otras dos han mostrado mayor flexibilidad que Anthropic. Esto posiciona a Anthropic como el único jugador que mantiene una postura de seguridad estricta en esta carrera armamentística de IA militar, aunque corre el riesgo de ser marginada.

La extensión final de los productos de IA es para servir a los Estados, y en el ámbito militar, esa línea es inevitable.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios