Los funcionarios chinos usan ChatGPT como diario, revelando accidentalmente operaciones secretas de represión y difamación contra la primera ministra japonesa, Sanae Yoshimura. Un informe de OpenAI indica que estas personas también recopilaron información política y económica de EE. UU. y consultaron sobre tecnología de cambio de rostro, destacando la amenaza de la guerra de información en la era de la IA.
¿Decirle todo a la IA puede filtrar secretos nacionales? Una guerra de información transnacional en China, que involucra represión y difamación contra la primera ministra japonesa Sanae Yoshimura, fue accidentalmente expuesta por un funcionario chino que usó ChatGPT.
Según el último informe de OpenAI, este funcionario chino usó ChatGPT como diario, registrando en detalle las operaciones secretas de represión. Sus registros en ChatGPT muestran que los operativos chinos fingieron ser oficiales de inmigración de EE. UU., advirtiendo a disidentes chinos en EE. UU. que sus declaraciones públicas ya violaban la ley.
En otro caso, describió cómo intentó usar documentos falsificados de un tribunal estadounidense para solicitar la eliminación de cuentas en redes sociales de disidentes.
Además, este funcionario chino solicitó a ChatGPT que generara un plan en varias etapas, con la intención de fomentar en línea la ira por los aranceles estadounidenses a productos japoneses, para difamar a la entonces próxima primera ministra japonesa Sanae Yoshimura.
Según OpenAI, ChatGPT se negó a responder a esa orden en ese momento. Pero cuando Yoshimura asumió el cargo a finales de octubre, en un popular foro de creadores japoneses, todavía aparecían etiquetas atacándola y quejándose de los aranceles estadounidenses.
Fuente de la imagen: Flickr, creada por Focal Foto. Los funcionarios chinos usan ChatGPT como diario, revelando accidentalmente una guerra de información internacional
OpenAI indica en su informe que, al preguntar sobre entidades relacionadas con EE. UU., ChatGPT proporcionó información pública sobre las ubicaciones de oficinas del gobierno federal, la distribución de empleados en los estados, y fuentes de información abiertas en foros económicos y financieros de EE. UU., así como sitios de búsqueda de empleo.
Luego, los funcionarios chinos enviaron correos electrónicos en inglés a funcionarios estatales estadounidenses y analistas de políticas comerciales y financieras, invitándolos a participar en consultas pagadas y ofrecer asesoramiento estratégico a sus clientes.
Estos correos generalmente buscaban trasladar las conversaciones a otras plataformas de videoconferencia, como WhatsApp, Zoom o Teams. Una de esas cuentas incluso subió especificaciones de hardware, solicitando instrucciones no técnicas para instalar FaceFusion, un software de cambio de rostro en tiempo real.
Al publicarse el informe de OpenAI, coincide con un momento clave en la lucha por el dominio de la IA entre EE. UU. y China. La forma en que estas tecnologías se apliquen en el campo de batalla y en los consejos de administración de las dos mayores economías del mundo será crucial en el futuro.
El Departamento de Defensa de EE. UU. está actualmente en un estancamiento con Anthropic, desarrollador de Claude, respecto al uso de sus modelos de IA.
El secretario de Defensa, Pete Hegseth, envió una última advertencia a Dario Amodei, CEO de Anthropic, el viernes, exigiéndole eliminar las restricciones de seguridad en los modelos de IA, o enfrentarse a la pérdida de lucrativos contratos con el Pentágono.
El exfuncionario del Pentágono, Michael Horowitz, que se enfoca en tecnologías emergentes, dijo a CNN que el informe de OpenAI muestra claramente que China está aprovechando activamente las herramientas de IA para fortalecer su guerra de información en línea.
Según reportes de CyberScoop, en una sesión de preguntas y respuestas con los medios, OpenAI afirmó que aún no ha detectado casos en los que actores de amenazas utilicen ChatGPT para ataques automatizados en línea, aunque aclaró que todavía hay varias investigaciones en curso.
En algunos casos, es evidente que ChatGPT es solo una de las múltiples herramientas de inteligencia artificial que usan los actores de amenazas.
En el caso de las agencias de seguridad chinas, en los informes sobre operaciones de guerra de información subidos al modelo, se mencionó el uso de modelos de IA como DeepSeek, provenientes de China, lo que indica que probablemente usaron otro modelo para preparar la campaña de difamación contra Sanae Yoshimura.
Lectura adicional:
¡Hackers chinos lanzan ciberataques masivos con IA! Anthropic: velocidad y escala de los hackers IA ya superan a los humanos