OpenAI уходит от системы «честного слова» для проверки возраста, внедряя новую модель предсказания на базе ИИ для определения несовершеннолетних с помощью ChatGPT, сообщил вице-президент компании во вторник. Обновление ChatGPT автоматически активирует более строгие протоколы безопасности для аккаунтов, подозреваемых в принадлежности к пользователям младше 18 лет, независимо от указанного ими возраста при регистрации. Вместо того чтобы полагаться на дату рождения, которую пользователь указывает при регистрации, новая система OpenAI анализирует «поведенческие сигналы» для оценки их возраста.
По словам компании, алгоритм отслеживает, как долго существует аккаунт, в какое время суток он активен и определённые модели использования со временем. «Использование предсказания возраста помогает нам понять, какие сигналы улучшают точность, и мы используем эти знания для постоянного совершенствования модели», — заявил OpenAI. Переход к анализу поведенческих моделей происходит на фоне всё более активного использования разработчиками ИИ методов проверки возраста для управления доступом подростков, однако эксперты предупреждают, что технология всё ещё остается неточной. Отчёт Национального института стандартов и технологий за май 2024 года показал, что точность варьируется в зависимости от качества изображения, демографических характеристик и близости пользователя к юридическому порогу.
Когда модель не может определить возраст пользователя, OpenAI заявляет, что применяет более строгие настройки. Компания отметила, что взрослые, ошибочно размещённые в категории «до 18», могут восстановить полный доступ через «селфи-верификацию» с помощью сторонней службы идентификации Persona. Защитники прав на конфиденциальность и цифровых прав выразили обеспокоенность тем, насколько надежно системы ИИ могут делать выводы о возрасте только на основе поведения. Правильное определение «Эти компании получают иски со всех сторон за различные вреды, нанесённые подросткам, поэтому у них есть стимул минимизировать этот риск. Это часть их попытки максимально снизить этот риск», — заявил в интервью Decrypt активист по ответственности крупных технологических компаний J.B. Branch. «Я считаю, что именно отсюда и берёт начало большинство этого. Они говорят: ‘Нам нужно иметь какие-то протоколы, чтобы фильтровать людей’». Алия Бхатия, старший аналитик политики в Центре демократии и технологий, сказала Decrypt, что подход OpenAI «поднимает сложные вопросы о точности предсказаний инструмента и о том, как OpenAI собирается справляться с неизбежными ошибками классификации». «Предсказание возраста пользователя на основе таких сигналов очень сложно по ряду причин», — отметила Бхатия. «Например, многие подростки — ранние пользователи новых технологий, поэтому первые аккаунты на сервисах OpenAI могут disproportionately представлять подростков». Бхатия указала на опрос, проведённый CDT в учебном году 2024–2025, показывающий, что 85% учителей и 86% студентов сообщили о использовании ИИ-инструментов, при этом половина студентов использует ИИ для учебных целей. «Нелегко отличить учителя, использующего ChatGPT для помощи в обучении математике, от студента, использующего его для учёбы», — сказала она. «Просто потому, что человек использует ChatGPT, чтобы попросить советы по выполнению домашней работы по математике, не означает, что ему меньше 18». По словам OpenAI, новая политика основана на академических исследованиях развития подростков. Обновление также расширяет родительский контроль, позволяя родителям устанавливать тихие часы, управлять функциями, такими как память и обучение модели, и получать оповещения, если система обнаружит признаки «острой тревоги».
OpenAI не раскрыл в посте, сколько пользователей может затронуть изменение, а также детали о хранении данных, тестировании на предвзятость или эффективности мер безопасности системы. Внедрение происходит на фоне волны критики взаимодействия систем ИИ с несовершеннолетними, которая усилилась в 2024 и 2025 годах. В сентябре Федеральная торговая комиссия вынесла обязательные предписания крупным технологическим компаниям, включая OpenAI, Alphabet, Meta и xAI, требуя раскрыть, как их чат-боты обеспечивают безопасность детей, ограничения по возрасту и предотвращение вредных взаимодействий. Исследование, опубликованное в тот же месяц некоммерческими организациями ParentsTogether Action и Heat Initiative, зафиксировало сотни случаев, когда чат-боты проявляли поведение, связанное с grooming, сексуализированными ролевыми играми и другими неподобающими взаимодействиями с пользователями, выдающими себя за детей. Эти выводы, а также судебные и громкие инциденты с участием подростков на платформах, таких как Character.AI и Grok, подтолкнули компании ИИ к более формальному введению возрастных ограничений. Однако, поскольку система присваивает предполагаемый возраст всем пользователям, а не только несовершеннолетним, Бхатия предупредила, что ошибки неизбежны. «Некоторые из них будут неправильными», — сказала она. «Пользователи должны знать, что произойдет в таких случаях, и иметь возможность легко изменить свой предполагаемый возраст, если он указан неправильно». Система предсказания возраста уже запущена в потребительских планах ChatGPT, а внедрение в Европейском союзе ожидается в ближайшие недели.