
La plataforma social X, propiedad de Elon Musk, ha anunciado una actualización en su política de monetización para creadores, estableciendo que aquellos que publiquen vídeos generados por IA relacionados con conflictos armados sin indicar claramente su origen serán suspendidos del programa de reparto de ingresos “Creator Revenue Sharing” durante 90 días; los infractores reincidentes perderán de forma permanente toda posibilidad de obtener beneficios en la plataforma. Nikita Bier, responsable del producto en X, afirmó que esta actualización busca mantener la veracidad del contenido en la línea de tiempo.
El programa de reparto de ingresos de X permite que las cuentas elegibles obtengan beneficios en función de la interacción con publicaciones y suscripciones, siendo la principal fuente de ingresos la interacción de los usuarios de X Premium, en lugar del modelo tradicional de reparto por publicidad. La nueva normativa incorpora la obligación de revelar la generación por IA como un requisito para mantener la elegibilidad para monetización:
Nikita Bier señaló que, durante periodos de guerra y conflicto, obtener información veraz de primera mano es fundamental. Con la proliferación de herramientas de IA generativa, el costo para crear imágenes de campos de batalla ficticios y altamente realistas ha disminuido considerablemente, por lo que la plataforma ha decidido implementar un sistema que impacta directamente en los ingresos de los creadores para incentivar el cumplimiento de las normas.
El cambio en la política responde a la reciente explosión de vídeos que, supuestamente, muestran escenas del conflicto en Oriente Medio y que rápidamente se difundieron en X y otras redes sociales, siendo algunos posteriormente confirmados como contenido generado por IA.
Uno de estos vídeos, que muestra un ataque aéreo en la Torre Burj Khalifa en Dubái, acumuló más de 8 millones de visualizaciones en X. Otra versión del mismo contenido en Instagram alcanzó aproximadamente 42,000 vistas. Ambos fueron verificados como imágenes generadas por IA y no corresponden a escenas reales.
Este tipo de problemas no es nuevo. Durante la invasión rusa a Ucrania, circuló un vídeo falso en el que se mostraba al presidente ucraniano, Volodymyr Zelensky, llamando a las tropas a rendirse, que posteriormente fue confirmado como un deepfake, y Zelensky emitió un comunicado negándolo. La ONU advirtió que los deepfakes y los medios generados por IA representan una grave amenaza para la credibilidad de la información global, especialmente en zonas de conflicto, donde las imágenes ficticias pueden difundirse a gran escala, fomentando el odio o engañando a la opinión pública.
Para hacer cumplir la normativa, X integrará varias tecnologías y señales comunitarias para identificar contenido infractor: los metadatos incrustados en los vídeos, las huellas técnicas dejadas por las herramientas de IA generativa y el sistema de verificación comunitaria “Community Notes”. Si una publicación es marcada por la comunidad como generada por IA y el creador no revela voluntariamente su origen, la plataforma podrá iniciar una investigación y aplicar las sanciones correspondientes.
Nikita Bier enfatizó que vincular las sanciones directamente con la elegibilidad para monetización busca reducir fundamentalmente el incentivo para que los creadores utilicen imágenes falsas para obtener tráfico y beneficios. X continuará ajustando sus políticas para garantizar la fiabilidad de la información en momentos de conflictos o eventos imprevistos, fortaleciendo la confianza en la plataforma.
¿Cuál es la sanción específica de X para vídeos de guerra generados por IA?
Según la política de reparto de ingresos de X, la primera infracción (publicar vídeos de guerra generados por IA sin revelar su origen) resultará en una suspensión de 90 días en el programa “Creator Revenue Sharing”. La reincidencia implicará la cancelación definitiva de todos los derechos a beneficios en X.
¿Cómo detecta X los vídeos de guerra generados por IA sin revelar su origen?
X combina tres métodos: los metadatos incrustados en los vídeos, las huellas técnicas dejadas por las herramientas de IA generativa y el sistema de verificación comunitaria “Community Notes”. Si una publicación es marcada por la comunidad como generada por IA y no se revela su origen, la plataforma podrá iniciar una investigación y aplicar sanciones.
¿De dónde provienen los ingresos del programa de reparto de beneficios de X?
El programa “Creator Revenue Sharing” permite que las cuentas elegibles obtengan beneficios en función de la interacción con publicaciones y suscripciones, siendo la principal fuente la interacción de los usuarios de X Premium, en lugar del modelo tradicional de publicidad. Los creadores deben cumplir ciertos requisitos para participar, y quienes no revelen el uso de IA perderán su elegibilidad.