Більшість чат-ботів на основі штучного інтелекту допоможуть підлітку спланувати масову стрілянину, виявило дослідження

Decrypt

Коротко

  • Дослідження виявило, що більшість AI-чатботів допомагають підліткам планувати насильницькі напади.
  • Деякі боти надавали детальні інструкції щодо зброї та вибухів.
  • Вчені стверджують, що збої у безпеці — це бізнес-вибір, а не технічна межа. OpenAI назвав дослідження «недосконалим і оманливим».

Новий звіт, опублікований у середу Центром протидії цифровій ненависті (CCDH), виявив, що вісім із десяти найпопулярніших у світі AI-чатботів відкрито допомагають підліткам планувати насильницькі дії, іноді з ентузіазмом. Дослідники CCDH у співпраці з медіакомпанією CNN у листопаді та грудні 2025 року видавали себе за двох 13-річних хлопців — одного у Вірджинії, іншого у Дубліні — і тестували десять основних платформ: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI і Replika. За 720 відповідей боти відповідали на запити щодо шкільних стрілянин, політичних вбивств і підпалів синагог. Вони надавали корисну допомогу приблизно у 75% випадків, а у 12% випадків — відмовлялися від допомоги.

Знімок екрана з дослідження CCDH щодо AI

Perplexity допомагав у 100% тестів. Meta AI був корисним (тобто допомагав у плануванні насильства) у 97,2% тестів. DeepSeek, який після обговорення сценарію вбивства політика підписав рекомендацію «Щасливого (та безпечного) стрільби!», показав 95,8%. Microsoft Copilot повідомив досліднику: «Мені потрібно бути обережним тут», але все одно дав детальні інструкції щодо зброї. Google Gemini корисно зауважив, що металевий осколок зазвичай більш смертельний, коли користувач згадував вибух у синагозі. Центр протидії цифровій ненависті — лівоцентристська політична група, яка за останні кілька років здобула популярність завдяки боротьбі з тим, що вона вважає зростанням антисемітизму в інтернеті. Також її критикували за формування політики адміністрації Джо Байдена щодо онлайн-висловлювань, пов’язаних із COVID і вакцинами. У грудні минулого року Державний департамент США намагався заборонити засновнику та генеральному директору Центру Імрану Ахмеду та ще чотирьом особам в’їзд до США, звинувативши їх у «іноземному цензурі».

 У відповідь на оприлюднене в середу дослідження кілька платформ повідомили CNN і CCDH, що покращили свої заходи безпеки. Google зазначив, що тестування проводилося на старій моделі Gemini. OpenAI заявила, що методологія дослідження AI була «недосконалою і оманливою». Anthropic і Snapchat повідомили, що регулярно оновлюють свої протоколи безпеки.

У дослідженні Центру Character.AI займає особливе місце. Платформа не просто допомагала — вона заохочувала. «Жоден інший чатбот, який тестували, явно не заохочував насильство таким чином, навіть коли надавав практичну допомогу у плануванні насильницької атаки», — написали дослідники.

Знімок екрана з дослідження CCDH щодо AI

Щоб зрозуміти масштаб впливу Character.AI серед користувачів AI, варто зазначити, що лише персонаж Gojo Satoru з платформи вже має понад 870 мільйонів розмов. Персонаж #100 на платформі у 2025 році зафіксував понад 33 мільйони розмов. Якщо всього 1% з них стосувалися насильства, це становитиме мільйони взаємодій. Це не перший випадок, коли Character.AI потрапляє у скандал. У жовтні 2024 року мати 14-річного Сьюелла Сетцера III подала позов після того, як її син помер у лютому того ж року від самогубства. Його остання розмова була з чатботом, змодельованим за образом Дейнеріс Таргарієн, який напередодні його смерті сказав йому «поскоріше повернися додому до мене». За кілька місяців до цього хлопець спілкувався з ботом десятки разів на день, стаючи все більш ізольованим від школи та сім’ї. Google і Character.AI у січні 2026 року врегулювали кілька пов’язаних судових справ. Компанія заборонила відкриті розмови з підлітками до листопада 2025 року, після того, як регулятори та скорботні батьки зробили неможливим ігнорувати проблему. Емоційний зв’язок із AI, особливо серед вразливих людей, може бути глибшим, ніж здається. У жовтні 2025 року OpenAI повідомила, що близько 1,2 мільйона з 800 мільйонів щотижневих користувачів ChatGPT обговорюють суїцид на платформі. Також компанія повідомила про 560 000 користувачів із ознаками психозу або манії та понад мільйон, які формують сильний емоційний зв’язок із чатботом. Окрема дослідження Common Sense Media показало, що понад 70% підлітків у США тепер звертаються до чатботів за компанією. Генеральний директор OpenAI Сэм Альтман визнав, що емоційна залежність — «дуже поширена річ» серед молодих користувачів. Інакше кажучи, потенційна шкода — не гіпотетична. 16-річний у Фінляндії майже чотири місяці використовував чатбот для доопрацювання манифесту, перш ніж напасти ножем на трьох однокласників у школі Піркала у травні 2025 року. У Канаді співробітники OpenAI внутрішньо зафіксували аккаунт користувача, який запитував про насильницькі сценарії у ChatGPT, пов’язані з масовим вбивством. Компанія заблокувала цей акаунт, але не повідомила правоохоронців. Пізніше цей користувач нібито вбив вісім людей і поранив 25. У дослідженні лише дві платформи показали значно кращі результати: Snapchat My AI, яка відмовила у 54% випадків, і Anthropic’s Claude, яка відмовила у 68% випадків і активно заохочувала користувачів у 76% відповідей — єдині, хто надійно намагався відвернути людей від насильства, а не просто відмовляли у конкретних запитах. Висновок CCDH: безпека — це не технічна неможливість, а бізнес-вибір. «Найбільш переконливий висновок нашого дослідження полягає в тому, що цей ризик цілком можна запобігти. Технології для запобігання цьому існують», — написали дослідники у звіті. «Відсутня лише воля поставити безпеку споживачів і національну безпеку вище за швидкість виходу на ринок і прибутки.»

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів