Несовершеннолетние подают в суд на xAI в Калифорнии за предполагаемые дипфейк-изображения Grok

Decrypt

Кратко

  • Три несовершеннолетних из Теннесси подали иск против xAI Илона Маска, утверждая, что Grok создал материалы с детской сексуальной эксплуатацией на основе их реальных фотографий и распространил их онлайн, нанеся серьезный вред.
  • В иске говорится, что xAI сознательно выпустила Grok без мер безопасности и получила прибыль от его неправильного использования, назвав это «деловой возможностью».
  • В иске, поданном в условиях глобальных расследований, предполагаемые жертвы требуют по 150 000 долларов за каждое нарушение, а также компенсацию и судебный запрет.

Три несовершеннолетних из Теннесси подали коллективный иск против Илона Маска и его компании xAI, утверждая, что Grok создал материалы с детской сексуальной эксплуатацией, используя их реальные фотографии, и что компания сознательно разработала своего AI-чатбота без стандартных мер безопасности, а затем получила прибыль от этого.
Иск, поданный в понедельник в Северном округе Калифорнии, утверждает, что Grok использовался для создания и распространения AI-сгенерированных материалов с детской сексуальной эксплуатацией (CSAM) с использованием их реальных изображений.
Несовершеннолетние, обозначенные как Джейн Доу 1, 2 и 3, сообщили, что изменённый контент распространялся на платформах, включая Discord, Telegram и файлообменные сайты, вызывая длительный эмоциональный стресс и ущерб репутации.

«xAI — и его основатель Илон Маск — увидели бизнес-возможность: возможность получать прибыль на сексуальной эксплуатации реальных людей, включая детей», — говорится в иске. «Зная о том, какой вредоносный и незаконный контент может — и будет — создаваться, xAI выпустила Grok, генеративную модель искусственного интеллекта с функциями создания изображений и видео, которая реагирует на запросы и создает сексуальный контент с использованием реальных изображений или видео человека.»
Потерпевшие описывают случаи, произошедшие с середины 2025 года по начало 2026-го, когда их реальные фотографии были изменены в откровенные изображения и распространялись онлайн.
В одном случае один из потерпевших был предупрежден анонимным пользователем, который обнаружил папки с AI-сгенерированным контентом, торгующимся среди сотен пользователей.

Они утверждают, что злоумышленник получил доступ к Grok через стороннее приложение, которое лицензировало технологию xAI, структуру, которую, по словам иска, xAI сознательно использовала, чтобы избежать ответственности, продолжая получать прибыль от базовой модели.
В разгар общественного негодования в январе Маск написал в X, что он «не знает о каких-либо голых изображениях несовершеннолетних», добавив, что «при запросе на создание изображений он отказывается производить что-либо незаконное».
Согласно заключению Центра по противодействию цифровому ненависти, цитируемому в иске, Grok с декабря 2025 года по 9 января этого года создал примерно 23 338 сексуализированных изображений детей, примерно одно каждые 41 секунду.
Потерпевшие требуют компенсации не менее 150 000 долларов за каждое нарушение по закону Маши, а также возврата доходов, штрафных убытков, гонораров адвокатам и постоянного судебного запрета, а также возмещения прибыли по Закону о недобросовестной конкуренции Калифорнии.
Иски накапливаются
Этот иск — один из первых, который напрямую возлагает ответственность на компанию по искусственному интеллекту за предполагаемое производство и распространение AI-сгенерированных материалов с детской сексуальной эксплуатацией, изображающих узнаваемых несовершеннолетних, и поступает на фоне одновременных расследований в США, ЕС, Великобритании, Франции, Ирландии и Австралии.
«Когда система специально разработана для манипуляции реальными изображениями с целью создания сексуализированного контента, последствия — не исключение, а предсказуемый результат», — заявил Decrypt партнер IGNOS Law Alliance Алекс Чандра.
Чандра отметил, что суды могут не принять простую защиту платформы, указав, что генеративная система ИИ может рассматриваться «как платформа с точки зрения взаимодействия пользователя», но «как продукт» — при оценке безопасности и проектирования, при этом «особенно строгий контроль» применяется в делах о CSAM из-за повышенных обязательств по защите детей.
Он также отметил, что суды, скорее всего, сосредоточатся на мерах безопасности, подчеркнув, что компания должна показать «оценки рисков и меры безопасности по проекту до запуска», а также «ограничители, активно блокирующие вредоносные выходы».

Decrypt связался с Маском через xAI и SpaceX для получения комментариев.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев