Recientemente vi un análisis profundo sobre la aplicación de la IA en el ámbito militar, y algunas observaciones merecen reflexión.



En pocas palabras, las fuerzas armadas estadounidenses en una operación reciente contra altos mandos de un país, cambiaron completamente el modo tradicional de combate. Ya no se trata de bombardeos masivos convencionales, sino de un conjunto de «armas definidas por software» compuesto por la plataforma de datos Palantir, el sistema de drones Anduril y el gran modelo Claude. La lógica detrás de esto es bastante impactante.

El papel de Palantir actúa como un «cerebro de campo de batalla». Su tecnología ontológica puede transformar imágenes satelitales, escuchas de comunicaciones y datos de redes sociales, en mapas de batalla en tiempo real. Los comandantes ya no ven informes densos, sino un campo de batalla digital vivo. Lo más sorprendente es que desplegaron ingenieros en el frente para integrarse directamente en las fuerzas armadas, reduciendo meses de actualización de sistemas a solo unas horas.

En cuanto a las comunicaciones, la constelación de satélites Starshield de SpaceX se convirtió en un elemento clave. Cuando Irán cortó las redes terrestres para crear un vacío informativo, estos 480 satélites encriptados mantuvieron la comunicación mediante enlaces láser entre satélites. Un terminal portátil de dos pies de lado puede transmitir petabytes de imágenes de alta resolución en segundos.

Lo interesante es que en el ámbito de la ética de la IA ha surgido una división. Claude, debido a sus salvaguardas de seguridad, fue marginado por el Departamento de Defensa, mientras que OpenAI y xAI fueron priorizados por no estar «atados a la corrección política». Pero irónicamente, Claude terminó jugando un papel clave en secreto: procesando millones de llamadas interceptadas en persa, identificando grietas en la cadena de mando y proporcionando inteligencia para los ataques. Los analistas solo necesitan preguntar: «Si hacemos esto, ¿a dónde es más probable que huya el objetivo?», y Claude puede generar la mejor estrategia de interceptación basada en teorías militares y datos en tiempo real.

Aún más aterrador es el sistema desarrollado por las Fuerzas de Defensa de Israel. Lavender puede puntuar a millones de personas, y Habosolah genera 100 objetivos de ataque diarios. Lo más escalofriante es que los humanos solo dedican 20 segundos a revisar si son hombres o no. Además, existe un sistema llamado «¿Papá dónde estás?», que rastrea cuándo vuelven a casa los objetivos, ya que atacar en casa es más fácil que en bases militares.

En el nivel de ejecución, los enjambres de drones de Anduril y Shield AI pueden operar de forma autónoma incluso sin GPS ni comunicación satelital. Los drones pueden cambiar sin problemas entre diferentes sistemas de IA en vuelo, como actualizar una app en el teléfono. Los soldados usan visores de
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado