Los influencers de IA utilizan tecnología de IA para falsificar fotos íntimas con celebridades y atraer tráfico a sitios para adultos en Instagram con fines de lucro, revelando la falta de regulación en la plataforma y el caos legal y ético en la monetización de contenido pornográfico generado por IA.
(Resumen previo: Carteras, advertencias y puntos débiles: Análisis completo de los ataques de seguridad en criptomonedas en 2025)
(Información adicional: ¿Un fallo interno en Bybit? Experto en seguridad: ¿Hacker norcoreano Lazarus sospechoso de haber infiltrado los ordenadores de empleados de la exchange para obtener permisos de firma múltiple en las carteras?)
Índice del artículo
Recientemente, en Instagram han surgido numerosos perfiles de influencers virtuales generados por IA. Según reportes de 404media, estas cuentas utilizan tecnología de IA para crear falsas «fotos íntimas posteriores» de celebridades como LeBron James, Dwayne Johnson, Tyson… y otros famosos, mediante contenido provocativo en video para atraer tráfico, y luego dirigir a los usuarios a plataformas para adultos como Fanvue (una competencia de OnlyFans con políticas más permisivas respecto a contenido generado por IA) con fines de lucro, lo que ha provocado fuertes cuestionamientos sociales sobre los derechos de imagen y la responsabilidad de regulación de plataformas.
Esta tendencia, que comenzó a proliferar a finales de 2025, generalmente sigue una fórmula específica: al inicio del video se muestran fotos íntimas de influencers virtuales y celebridades con IA, acompañadas de la leyenda «How it started» (Cómo empezó); luego se alterna con fotos de ambos en la cama, sin ropa y sudorosos. Este contenido impactante logra aprovechar vulnerabilidades en los algoritmos, evadir la revisión inicial y difundirse rápidamente.
Aunque Meta ha comenzado a implementar la «Política de etiquetado de contenido generado por IA», que exige a los usuarios revelar si las imágenes han sido modificadas o generadas por IA, estas cuentas de influencers virtuales violan claramente las siguientes normativas, con poca efectividad:
Política de imágenes íntimas no consentidas (NCII): Meta prohíbe estrictamente compartir contenido íntimo o desnudo virtual sin consentimiento de la persona involucrada.
Normativa contra deepfakes y fraudes: Estas cuentas ocultan deliberadamente su identidad de IA y utilizan imágenes engañosas para dirigir tráfico comercial.
Derechos de imagen y derechos de personalidad: Desde el punto de vista legal, esta práctica viola el «derecho a la divulgación» de las celebridades. El año pasado, el jugador de la NBA LeBron James envió una notificación de cese y desistimiento por este tipo de acciones, alegando uso indebido de su imagen con fines lucrativos.
Estos reels en Instagram suelen tener millones de vistas, a veces incluso cientos de millones. A través de un modelo de «captación de tráfico externo y monetización interna», estas cuentas continúan robando videos de creadores reales para realizar «face swapping» y otras prácticas dañinas.
Frente a las denuncias, Meta eliminó algunos videos que violaban las normas, pero no tomó medidas sistemáticas de bloqueo. Expertos legales advierten que, a medida que la tecnología de IA se vuelve más accesible, si las plataformas no aplican de manera efectiva sus políticas de etiquetado y revisión de imágenes, no solo las celebridades serán víctimas, sino también el público en general, que podría convertirse en víctima de estos modelos de monetización pornográfica.
Actualmente, los representantes legales de las víctimas están considerando presentar demandas colectivas de mayor escala para obligar a las grandes plataformas a asumir su responsabilidad en la supervisión del contenido.