OpenAI y la colaboración con la IA del Pentágono generan controversia: empleados expresan públicamente sus opiniones, la línea roja de seguridad y los riesgos de vigilancia se convierten en el centro de atención

GateNews

El 3 de marzo se informó que la noticia del acuerdo de cooperación en IA de OpenAI con el Departamento de Defensa de EE. UU. seguía creciendo, y varios empleados actuales y antiguos discutieron públicamente recientemente los límites de seguridad, los posibles usos y las diferencias entre la posición del acuerdo y la de Anthropic sobre la plataforma social X, lo que atrajo una amplia atención en el ámbito de la tecnología y la política.

El CEO de OpenAI, Sam Altman, confirmó previamente que la empresa ha alcanzado un acuerdo de cooperación con el Departamento de Defensa de EE. UU., lo que le permite utilizar los modelos de inteligencia artificial de OpenAI bajo condiciones específicas. La colaboración se volvió rápidamente controvertida porque otra empresa de IA, Anthropic, se había negado previamente a aceptar términos similares por temor a que su modelo Claude pudiera usarse para vigilancia doméstica a gran escala o sistemas autónomos de armas letales.

En respuesta, el investigador de OpenAI, Boaz Barak, dijo que es inexacto describir el contrato de OpenAI como “debilitando las líneas rojas de seguridad”. Señaló que, según la información disponible actualmente, las restricciones al uso de modelos de IA en el acuerdo OpenAI pueden ser más estrictas que los contratos previamente obtenidos por Anthropic, especialmente en lo que respecta a la prevención de la vigilancia doméstica a gran escala y armas autónomas.

Mientras tanto, Miles Brundage, exjefe de investigación de políticas en OpenAI, ofrece una visión diferente. Cree que, en el contexto de abogados externos y declaraciones públicas del Pentágono, algunos empleados pueden sospechar que la empresa ha hecho concesiones en las negociaciones e intentar presentar tales concesiones como cooperación técnica. Sin embargo, añadió más tarde que la estructura interna de OpenAI es compleja y que el equipo implicado en las negociaciones podría estar trabajando duro para lograr un resultado razonable.

Otro técnico de OpenAI, Clive Chan, reveló que el contrato de la empresa contiene una cláusula de salvaguardia que prohíbe el uso de IA para vigilancia masiva o armas letales autónomas, y afirmó que está presionando a la empresa para que revele más detalles del acuerdo en respuesta a las preocupaciones públicas.

El científico investigador Muhammad Bavarian dijo que era injusto que el Pentágono tratara Anthropic como un riesgo en la cadena de suministro. Cree que si ambas partes mantienen la calma en las negociaciones, aún existe la oportunidad de cerrar la brecha de posiciones.

Además, el investigador Noam Brown señaló que la redacción originalmente anunciada del acuerdo sí dejaba algunas dudas, como la posibilidad de que la IA se utilice en nuevas formas legales de vigilancia. Sin embargo, tras la actualización de OpenAI su blog oficial, estas declaraciones han sido ajustadas.

Noam Brown también subrayó que el uso de la IA en las agencias de seguridad nacional debería estar sujeto a revisión democrática del proceso y no debería decidirse únicamente por empresas tecnológicas o agencias de inteligencia. Actualmente, los planes para desplegar sistemas de IA relevantes a servicios de inteligencia como la NSA también se han suspendido a la espera de nuevas discusiones políticas.

Este incidente refleja las complejas controversias que enfrenta la aplicación de la tecnología de IA en el ámbito de la seguridad nacional. A medida que las capacidades de IA continúan aumentando, se espera que los debates sobre los usos militares de la IA, los riesgos de vigilancia de la IA y la gobernanza ética de la IA sigan intensificándose.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios