X ввел строгую новую политику, направленную на распространение искусственно созданной военной дезинформации, нанося удар по карманам создателей контента.
Социальная платформа X объявила о значительном изменении политики распределения доходов создателей, направленном против видео, созданных с помощью искусственного интеллекта о вооруженных конфликтах. Этот шаг связан с обострением войны на Ближнем Востоке и растущими опасениями по поводу дезинформации во время конфликта.
Никита Бир, руководитель продукта X, заявил, что создатели, публикующие видео войны, созданные ИИ, без указания этого в течение 90 дней, будут отстранены от программы распределения доходов. Повторные нарушения приведут к постоянному бану. Контроль будет осуществляться с помощью Community Notes, системы краудсорсинговой проверки фактов платформы, а также метаданных и сигналов, встроенных в инструменты генеративного ИИ.
Бир подчеркнул, что во время войны крайне важно, чтобы люди имели доступ к подлинной информации с места событий, предупредив, что современный ИИ делает создание вводящего в заблуждение контента очень простым.
Объявление прозвучало на фоне быстрого распространения дезинформации в интернете о войне США и Израиля с Ираном, которая угрожает перерасти в более широкий региональный конфликт. Социальные платформы все больше под давлением, чтобы предотвратить искажение общественного восприятия с помощью синтетических медиа во время кризисов.
Среди вирусных материалов — высококачественное видео, созданное ИИ, имитирующее разрушение авианосца USS Abraham Lincoln. Заявления и видео были опровергнуты Центральным командованием США. Видеоролик в кинематографическом стиле показывает гиперзвуковые ракеты, превосходящие системы защиты Aegis США. Еще один клип якобы показывал, как взорвали региональную штаб-квартиру ЦРУ; однако, проверяющие факты установили, что это было связано с пожаром в жилом районе Шарджи, ОАЭ, в 2015 году, который был цифрово усилен с помощью ИИ, чтобы выглядеть как военная атака.
Другие платформы, такие как YouTube и TikTok, ввели требования по раскрытию информации о контенте, созданном с помощью ИИ, но подход X более строгий, поскольку он напрямую связывает соблюдение правил с монетизацией. X активно использует Community Notes как децентрализованный инструмент проверки фактов, а новая политика интегрирует эту систему в механизм принуждения, фактически делая краудсорсинг обнаружения нераскрытого ИИ-военного контента частью процесса.