El Grupo de Inteligencia de Amenazas de Google (GTIG) vuelve a alertar sobre los riesgos de la IA, publicando su último informe sobre cómo los hackers peligrosos patrocinados por gobiernos están usando la inteligencia artificial. Este equipo ha identificado un aumento en los intentos de extracción de modelos, un método de robo de propiedad intelectual en el que alguien consulta repetidamente un modelo de IA, intentando aprender su lógica interna y replicarla en un nuevo modelo.
Nuestro nuevo informe del Grupo de Inteligencia de Amenazas de Google (GTIG) desglosa cómo los actores de amenazas están usando la IA para todo, desde reconocimiento avanzado hasta phishing y desarrollo automatizado de malware.
Más sobre esto y cómo estamos contrarrestando las amenazas ↓ https://t.co/NWUvNeBkn2
— Política Pública de Google (@googlepubpolicy) 12 de febrero de 2026
Aunque esto es preocupante, no es el principal riesgo que Google expresa su preocupación. El informe advierte además sobre actores de amenazas respaldados por gobiernos que utilizan modelos de lenguaje grandes (LLMs) para investigación técnica, focalización y generación rápida de señuelos de phishing matizados. El informe destaca preocupaciones sobre la República Popular Democrática de Corea, Irán, la República Popular China y Rusia. Gemini y ataques de phishing Se informa que estos actores están usando herramientas de IA, como Gemini de Google, para reconocimiento y perfilado de objetivos, utilizando recopilación de inteligencia de código abierto a gran escala, así como para crear estafas de phishing hiperpersonalizadas. “Esta actividad subraya un cambio hacia la habilitación de phishing aumentada por IA, donde la velocidad y precisión de los LLMs pueden superar el trabajo manual tradicionalmente requerido para el perfilado de víctimas”, afirma el informe de Google. “Las víctimas han dependido durante mucho tiempo de indicadores como mala gramática, sintaxis torpe o falta de contexto cultural para identificar intentos de phishing. Cada vez más, los actores de amenazas aprovechan los LLMs para generar señuelos hiperpersonalizados que pueden reflejar el tono profesional de una organización objetivo”.
Por ejemplo, si Gemini recibe la biografía de un objetivo, podría generar una buena persona y ayudar a crear un escenario que capte efectivamente su atención. Al usar IA, estos actores de amenazas también pueden traducir de manera más efectiva dentro y fuera de los idiomas locales. A medida que la capacidad de la IA para generar código ha crecido, esto también ha abierto puertas para su uso malicioso, con estos actores solucionando problemas y generando herramientas maliciosas usando la funcionalidad de codificación de IA. El informe advierte además sobre un interés creciente en experimentar con IA agentica. Esta es una forma de inteligencia artificial que puede actuar con cierto grado de autonomía, apoyando tareas como el desarrollo de malware y su automatización. Google señala sus esfuerzos para combatir este problema mediante diversos factores. Además de crear informes de Inteligencia de Amenazas varias veces al año, la empresa cuenta con un equipo que busca constantemente amenazas. Google también está implementando medidas para fortalecer Gemini en un modelo que no pueda ser utilizado con fines maliciosos. A través de Google DeepMind, el equipo intenta identificar estas amenazas antes de que puedan materializarse. En esencia, Google busca identificar funciones maliciosas y eliminarlas antes de que puedan representar un riesgo. Aunque el informe deja claro que el uso de la IA en el panorama de amenazas ha aumentado, Google señala que aún no existen capacidades revolucionarias. En cambio, simplemente hay un aumento en el uso de herramientas y riesgos.