Штучний інтелект, підроблені військові зображення, повсюдне поширення: як дезінформація про іранський конфлікт охопила соціальні медіа

ChainNewsAbmedia

У 2022 році, коли розпочалася війна між Росією та Україною, у соціальних мережах заполонили низькоякісні фальшиві зображення — будь то фотомонтажі, створені за допомогою Photoshop, або неправильно позначені кадри з відеоігор, фільмів чи старих новин. Тепер, у конфлікті в Ірані, знову з’явилися ті ж самі методи, але з новим типом обману, який ще не був поширений у 2022 році: будь-хто може легко освоїти AI-інструменти, що генерують високоякісні фальшиві відео та зображення, які важко відрізнити від справжніх.

Професор цифрової криміналістики Каліфорнійського університету в Берклі Хані Фарід зазначає, що десять років тому подібні фальшиві повідомлення були рідкістю і швидко викривалися; сьогодні ж їх сотні, і ступінь реалістичності вражає. «Це не просто реалістично, а й активно поширюється — глибоко впливає на людей. Вони вірять у це і продовжують поширювати.»

Поширення генеративного AI значно знизило бар’єри для створення фальшивок

Відповідальний репортер BBC Verify, який давно слідкує за фейковими новинами з бойових зон, Шаян Садарізаде повідомляє, що за останній рік найважливішим зміною стало значне зниження порогу доступу до генеративного AI. «Зараз будь-хто може створити переконливі відео та зображення, що виглядають як сцени з важливих бойових дій, і їх важко відрізнити від справжніх навіть неозброєним оком або непрофесійним поглядом.»

Менше ніж через два тижні після початку конфлікту в Ірані, експерти, зокрема Садарізаде, підтвердили, що кілька AI-генерованих фальшивих відео вже набрали десятки мільйонів переглядів у соцмережах.

Які фальшиві зображення поширюються?

Вже ідентифіковані AI-підробки охоплюють широкий спектр, зокрема:

вигадані кадри ракетних обстрілів Ірану по Тель-Авіву

паніка людей, що тікають з аеропорту Тель-Авів під час атаки

відео, де спецназ США затримують іранських солдатів із зброєю

«відеозаписи» з камер спостереження, що нібито показують знищення іранських військових об’єктів (з них три — AI-генеровані, один — реальний з минулого року)

мобільні колони американських військ у Ірані

кадри уламків американського вертольота, що падає, на вулицях Тегерана

Що стосується статичних зображень, то поширюються фото американських баз і посольств, що горять після атак Ірану, зображення лідера Хаменеї, що похований під уламками, та сцени скорботи іранських цивільних. Навіть є фальшиві супутникові карти, що нібито показують пошкодження американської бази в Бахрейні.

Це лише верхівка айсберга щодо поширення фейкових повідомлень, пов’язаних з Іраном.

Недосконалість платформ і слабкий контроль ускладнюють боротьбу з фейками

Хоча Садарізаде та інші щодня викривають нові фальшивки, їх кількість зростає швидше, ніж вдається їх спростовувати, і ступінь реалістичності настільки високий, що звичайний користувач важко відрізнити правду від брехні під час прокрутки стрічки.

Багато поширених фальшивих повідомлень походять від проросійських акаунтів і мають пропагандистську мету. Однак мотивація створення інших фейків важко визначити — можливо, це для залучення трафіку, впливу або прибутку, або просто через легкість їх створення.

Фарід підкреслює, що сучасна ситуація дуже складна: «Контент став ще більш реалістичним, їхня кількість зросла, і вони проникають глибше — це наш реальний світ сьогодні, і він дуже хаотичний.»

Платформи соцмереж, зокрема X (колишній Twitter), минулого тижня оголосили, що платні автори, які публікують бойові кадри без позначки AI, будуть позбавлені доходу на 90 днів, а повторне порушення призведе до постійної блокування. Однак Фарід сумнівається у ефективності цієї політики, а більшість користувачів X не входять до програми платних авторів. TikTok і Meta (власники Facebook і Instagram) не коментували запити CNN.

Ще гірше, що власний AI-чатбот X, Grok, вже неодноразово називали Садарізаде, який стверджує, що він лише погіршує ситуацію, неправильно інформуючи користувачів про те, що багато AI-генерованих відео — це реальні кадри.

Як уникнути обману фейками?

Фарід визнає, що навіть кілька місяців тому поширені «методи розпізнавання AI-зображень» вже майже не працюють. Раніше можна було звернути увагу на кількість пальців або пропорції тіла, але сучасний AI вже виправляє такі очевидні помилки.

Основний спосіб — активно отримувати інформацію з надійних джерел, таких як авторитетні новинні медіа, а не довіряти незнайомим акаунтам у соцмережах. «У часи глобальних конфліктів соцмережі — не джерело правдивої інформації.»

Для тих, хто все ще часто користується соцмережами, експерти радять:

знижувати швидкість: перед поширенням або довірям зображенням з бойових зон — кілька секунд перевірки

уважно дивитися на деталі: чи синхронізовані звук і зображення? чи відповідає зображення реальності? AI ще має недоліки, і деякі згенеровані кадри залишають водяні знаки

перевіряти фактчекінгові ресурси: чи є професійні фактчекери або експерти, які вже висловили свою думку щодо цього зображення

звертати увагу на коментарі: іноді звичайні користувачі можуть підказати важливі зауваження

використовувати інструменти для виявлення AI: хоча вони не ідеальні, але мають певну цінність

Майбутнє викликає тривогу, і виклики лише зростають

Садарізаде закликає всіх «навчитися розпізнавати AI-зміст», але водночас визнає: «Виявлення AI-генерованого контенту стає дедалі складнішим, і тенденція показує, що це буде лише ускладнюватися.»

За умов постійного розвитку генеративного AI і слабкого контролю платформ, цифровий простір фейкових новин розширюється з неймовірною швидкістю, і кожен користувач смартфона — на передовій цієї інформаційної війни.

Ця стаття про поширення AI-підробок у бойових зображеннях: як фейки з Ірану захоплюють соцмережі, вперше з’явилася на ABMedia.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів