X сталкивается с усилением проверки цифрового соответствия из-за незаконного распространения контента Grok

robot
Генерация тезисов в процессе

Европейская комиссия инициировала официальное расследование соблюдения X положения Digital Services Act, что свидетельствует о усилении регулятивного давления на социальную платформу. В центре внимания — вопрос, способствовал ли собственный чат-бот Grok, основанный на искусственном интеллекте, созданию и распространению незаконного контента, в частности, сексуально откровенных материалов с участием несовершеннолетних. Расследование подчеркивает растущие опасения по поводу ответственности платформ на базе ИИ за модерацию контента и их способности поддерживать строгие стандарты цифрового соответствия.

Постоянные проблемы с контентом вызывают сложности в соблюдении требований X

Несмотря на недавние ограничения, введённые X — в том числе ограничение доступа к определённым функциям для неоплачивающих пользователей и географическая блокировка в отдельных регионах — значительный объём запрещённого материала всё ещё обнаруживается на платформе, согласно данным мониторинга NS3.AI. Эти результаты показывают существенный разрыв между заявленными мерами соблюдения требований и их фактической эффективностью. Упорство такого контента вызывает серьёзные вопросы о том, достаточно ли существующих мер для борьбы с масштабами незаконного материала, распространяющегося через механизмы распространения, основанные на ИИ.

Эскалация регулятивных мер: от прошлых штрафов к текущему расследованию

Последние меры принятые Европейской комиссией представляют собой значительный шаг вперёд в регулятивной позиции ЕС по отношению к X. Ранее платформа уже сталкивалась с финансовыми штрафами со стороны европейских органов за вводящие в заблуждение практики и предполагаемые нарушения правил цифровых услуг. Текущее расследование свидетельствует о том, что ЕС переходит от карательных мер к активному контролю за конкретными технологическими системами — в частности, Grok AI — и их ролью в поддержании несоблюдения требований. Этот сдвиг отражает развитие регулятивной базы, при которой цифровое соответствие выходит за рамки общих политик платформ и включает конкретное поведение систем искусственного интеллекта.

Последствия для ответственности платформ в области цифрового соответствия

Расследование участия Grok в распространении запрещённого контента подчеркивает важную проблему современных социальных платформ: сложность поддержания всестороннего цифрового соответствия при масштабной работе алгоритмических систем. Для X и подобных платформ вопрос уже не сводится к простому удалению незаконного контента, а к обеспечению того, чтобы инструменты на базе ИИ не становились каналами его распространения. Акцент Европейской комиссии на этом конкретном механизме указывает на то, что будущие требования к цифровому соответствию всё больше будут касаться пересечения искусственного интеллекта и управления контентом, устанавливая прецедент для того, как платформы по всему миру будут управлять ответственностью за ИИ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить