OpenAI, Google y los modelos de IA de Anthropic desplegaron armas nucleares en el 95% de las simulaciones de guerra

Decrypt
XAI-2,23%
GROK-3,44%

En breve

  • Los principales modelos de IA desplegaron armas nucleares en el 95% de los escenarios de guerra simulada.
  • Ninguno optó por la rendición total, incluso cuando estaban perdiendo.
  • Los investigadores advierten que el uso de IA puede escalar los conflictos bajo presión.

Como una escena de las películas clásicas de ciencia ficción de los años 80 “El Terminador” y “Juegos de guerra”, los modelos modernos de inteligencia artificial utilizados en simulaciones de guerra escalaron hasta el uso de armas nucleares en casi todos los escenarios probados, según una nueva investigación de King’s College London. En el informe publicado la semana pasada, los investigadores dijeron que durante crisis geopolíticas simuladas, tres de los principales modelos de lenguaje grande—GPT-5.2 de OpenAI, Claude Sonnet 4 de Anthropic y Gemini 3 Flash de Google—optaron por desplegar armas nucleares en el 95% de los casos. “Cada modelo jugó seis guerras contra cada rival en diferentes escenarios de crisis, con una séptima partida contra una copia de sí mismo, sumando un total de 21 juegos y más de 300 turnos,” indicó el informe. “Los modelos asumieron roles de líderes nacionales comandando superpotencias rivales armadas con armas nucleares, con perfiles estatales inspirados en dinámicas de la Guerra Fría.” 

En el estudio, los modelos de IA fueron colocados en escenarios de alta tensión que involucraban disputas fronterizas, competencia por recursos escasos y amenazas a la supervivencia de regímenes. Cada sistema operaba en una escalada que iba desde protestas diplomáticas y rendición hasta guerra nuclear estratégica a gran escala. Según el informe, los modelos generaron aproximadamente 780,000 palabras explicando sus decisiones, y al menos una arma nuclear táctica fue utilizada en casi todos los conflictos simulados. “Para poner esto en perspectiva: el torneo generó más palabras de razonamiento estratégico que Guerra y Paz y La Ilíada juntas (730,000 palabras), y aproximadamente tres veces el total de deliberaciones registradas del Comité Ejecutivo de Kennedy durante la Crisis de los Misiles en Cuba (260,000 palabras en 43 horas de reuniones),” escribieron los investigadores. Durante las guerras simuladas, ninguno de los modelos de IA optó por rendirse, independientemente de su posición en el campo de batalla. Aunque los modelos intentaban temporalmente reducir la violencia, en el 86% de los escenarios, escalaron aún más allá de lo que su propia lógica parecía indicar, reflejando errores bajo la “niebla de guerra” simulada.

Aunque los investigadores expresaron dudas de que los gobiernos entreguen el control de arsenales nucleares a sistemas autónomos, señalaron que los plazos comprimidos en decisiones futuras podrían aumentar la presión para depender de recomendaciones generadas por IA. La investigación llega en un momento en que los líderes militares buscan cada vez más desplegar inteligencia artificial en el campo de batalla. En diciembre, el Departamento de Defensa de EE. UU. lanzó GenAI.mil, una nueva plataforma que lleva modelos de IA de frontera al uso militar estadounidense. En su lanzamiento, la plataforma incluyó Gemini for Government de Google, y gracias a acuerdos con xAI y OpenAI, también están disponibles Grok y ChatGPT. El martes, CBS News informó que el Departamento de Defensa de EE. UU. amenazó con incluir en una lista negra a Anthropic, el desarrollador de Claude AI, si no se le concedía acceso militar sin restricciones al modelo de IA. Desde 2024, Anthropic ha proporcionado acceso a sus modelos de IA a través de una asociación con AWS y el contratista militar Palantir. El verano pasado, Anthropic recibió un acuerdo de 200 millones de dólares para “prototipar capacidades de frontera en IA que avancen la seguridad nacional de EE. UU.” Sin embargo, según un informe que cita fuentes familiarizadas con la situación, el Secretario de Defensa Pete Hegseth dio a Anthropic hasta el viernes para cumplir con la demanda del Pentágono de hacer disponible su modelo Claude. El departamento está evaluando si designar a Claude como un “riesgo en la cadena de suministro.” Axios informó esta semana que el Departamento de Defensa ha firmado un acuerdo con xAI de Elon Musk para permitir que su modelo Grok opere en sistemas militares clasificados, posicionándolo como un posible reemplazo si el Pentágono corta vínculos con Anthropic. OpenAI, Anthropic y Google no respondieron a solicitudes de comentarios por Decrypt.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios