A plataforma de rede social X de Elon Musk anunciou uma nova política para controlar os criadores que publicam vídeos de guerra gerados por inteligência artificial, sem deixar claro que o conteúdo foi criado por IA. Segundo Nikita Bier, chefe de produto do X, a empresa está atualizando a política de partilha de receitas com os criadores para proteger a veracidade das informações na plataforma e impedir o aproveitamento do programa de monetização.
De acordo com a nova regra, quem publicar vídeos de guerra gerados por IA de forma enganosa, sem indicar claramente, ficará proibido de participar do programa de partilha de receitas por 90 dias; múltiplas violações podem levar à exclusão permanente do programa de monetização. Essa decisão foi tomada após a disseminação de vários vídeos de IA sobre tensões no Oriente Médio, incluindo um vídeo falso de um ataque aéreo ao edifício Burj Khalifa em Dubai. O X usará Community Notes e dados de metadata para detectar conteúdo gerado por IA.