El 3 de marzo, según CNBC, el CEO de OpenAI, Sam Altman, admitió que el anterior acuerdo de cooperación en inteligencia artificial de la compañía con el Departamento de Defensa de EE. UU. fue demasiado precipitado y dijo que se ajustarían los términos correspondientes. Esta declaración llega en un momento en que la opinión pública sigue fermentando, después de que OpenAI anunciara una cooperación con el Pentágono, lo que desató amplios debates sobre ética en IA, uso militar y seguridad de datos.
Según información pública, el acuerdo se anunció el pasado viernes, al mismo tiempo que el gobierno de EE. UU. está impulsando varias decisiones relacionadas con la seguridad nacional. Tras la revelación de la noticia, algunas comunidades tecnológicas y usuarios expresaron preocupación por el posible uso de tecnología de inteligencia artificial con fines militares. Sam Altman publicó posteriormente en redes sociales que la empresa añadirá nuevas restricciones al acuerdo, incluyendo estipular claramente que los sistemas de IA no pueden usarse para la vigilancia doméstica de ciudadanos o residentes estadounidenses.
Sam Altman también dijo que el Departamento de Defensa de EE. UU. ha confirmado que las herramientas de inteligencia artificial de OpenAI no serán utilizadas directamente por agencias de inteligencia como la Agencia de Seguridad Nacional (NSA) para misiones de vigilancia de inteligencia. Al mismo tiempo, OpenAI planea colaborar con el Pentágono para desarrollar salvaguardas técnicas adicionales que reduzcan el riesgo de uso indebido de la IA en escenarios sensibles.
El CEO también admitió que la empresa cometió un error de juicio al seguir adelante con el acuerdo. Dijo que en ese momento el equipo quería desescalar rápidamente la situación y evitar conflictos políticos más graves, pero mirando atrás, la decisión parecía demasiado apresurada y podría interpretarse fácilmente como especulación.
La controversia también se relaciona con Anthropic, otra empresa de IA. Anteriormente, Anthropic había discrepado con el gobierno estadounidense sobre los límites del uso de su modelo de IA Claude y solicitó garantías claras de que sus sistemas no se utilizarían para vigilancia doméstica ni para el desarrollo de armas autónomas. Según se informa, las negociaciones entre ambas partes fracasaron.
Al mismo tiempo, hay fluctuaciones notables en el sentimiento de los usuarios en la red. Algunos usuarios han reducido su uso de ChatGPT en plataformas de aplicaciones y han recurrido a productos competidores como Claude, ampliando aún más las controversias éticas en la industria de la IA.
En su respuesta, Sam Altman también dijo que no cree que Anthropic deba considerarse un riesgo para la cadena de suministro y espera que el Departamento de Defensa de EE. UU. le imponga condiciones de cooperación similares a las de OpenAI. Este incidente ha vuelto a poner de manifiesto que, en el contexto del rápido desarrollo de la tecnología de inteligencia artificial, la cuestión fronteriza entre la IA y la seguridad nacional, las aplicaciones militares y la regulación social se está convirtiendo en el centro de atención en la industria tecnológica global.