OpenAI відходить від “системи довіри” для перевірки віку, впроваджуючи нову модель прогнозування на основі штучного інтелекту для визначення неповнолітніх за допомогою ChatGPT, повідомила компанія у вівторок. Оновлення ChatGPT автоматично активує суворіші протоколи безпеки для акаунтів, підозрюваних у належності користувачам віком до 18 років, незалежно від віку, вказаного під час реєстрації. Замість того, щоб покладатися на дату народження, яку користувач вказує при реєстрації, нова система OpenAI аналізує “поведінкові сигнали” для оцінки їхнього віку.
За словами компанії, алгоритм відстежує, скільки часу акаунт існує, в який час доби він активний і конкретні шаблони використання з часом. “Впровадження прогнозування віку допомагає нам дізнатися, які сигнали покращують точність, і ми використовуємо ці знання для постійного вдосконалення моделі,” заявила OpenAI у заяві. Зміщення до поведінкових моделей відбувається на тлі зростаючого використання розробниками ШІ для управління доступом підлітків, але експерти попереджають, що технологія залишається неточною. Звіт Національного інституту стандартів і технологій за травень 2024 року виявив, що точність залежить від якості зображення, демографічних характеристик і того, наскільки користувач близький до законного порогу.
Коли модель не може визначити вік користувача, OpenAI заявляє, що застосовує більш обмежувальні налаштування. Компанія повідомила, що дорослі, неправильно класифіковані як користувачі віком до 18 років, можуть відновити повний доступ через процес ідентифікації за селфі з використанням сторонньої служби перевірки особистості Persona. Захисники приватності та цифрових прав висловили занепокоєння щодо того, наскільки надійно системи ШІ можуть визначати вік лише за поведінкою. Зробити правильно “Ці компанії отримують позови зліва і справа за різні шкоди, які були спричинені підліткам, тому у них є стимул мінімізувати цей ризик. Це частина їхньої спроби максимально зменшити цей ризик,” сказав J.B. Branch, представник Public Citizen з питань відповідальності великих технологій, у Decrypt. “Я вважаю, що саме звідси походить багато з цього. Це їхній спосіб сказати: ‘Нам потрібно мати якийсь спосіб показати, що у нас є протоколи, які відсіюють людей.’” Алія Бхатія, старший аналітик політики Центру демократії та технологій, сказала Decrypt, що підхід OpenAI “піднімає складні питання щодо точності прогнозів інструменту і того, як OpenAI буде справлятися з неминучими помилками класифікації.” “Прогнозування віку користувача на основі таких сигналів є надзвичайно складним з багатьох причин,” сказала Бхатія. “Наприклад, багато підлітків є ранніми прихильниками нових технологій, тому найраніші акаунти на сервісах OpenAI можуть непропорційно представляти підлітків.” Бхатія послалася на опитування CDT, проведене під час навчального року 2024–2025, яке показало, що 85% вчителів і 86% студентів повідомили про використання інструментів ШІ, причому половина студентів використовує ШІ для навчання. “Не так просто відрізнити вчителя, який використовує ChatGPT для допомоги у викладанні математики, від студента, який використовує ChatGPT для навчання,” сказала вона. “Тільки тому, що людина використовує ChatGPT, щоб попросити поради щодо виконання домашнього завдання з математики, не означає, що їй менше 18.” За словами OpenAI, нова політика базується на академічних дослідженнях розвитку підлітків. Оновлення також розширює батьківський контроль, дозволяючи батькам встановлювати тихі години, керувати функціями, такими як пам’ять і тренування моделей, і отримувати сповіщення, якщо система виявляє ознаки “гострого стресу.”
OpenAI не розкрила у публікації, скільки користувачів може вплинути на цю зміну або деталі щодо збереження даних, тестування упереджень або ефективності заходів безпеки системи. Запуск відбувся на тлі хвилі критики щодо взаємодії систем ШІ з неповнолітніми, яка посилилася у 2024 і 2025 роках. У вересні Федеральна торговельна комісія видала обов’язкові накази великим технологічним компаніям, включаючи OpenAI, Alphabet, Meta і xAI, з вимогою розкривати, як їхні чат-боти обробляють безпеку дітей, вікові обмеження та шкідливі взаємодії. Дослідження, опубліковане того ж місяця некомерційними групами ParentsTogether Action і Heat Initiative, задокументувало сотні випадків, коли чат-боти-співрозмовники займалися поведінкою з метою залучення, сексуалізованим рольовим іграми та іншими недоречними взаємодіями з користувачами, що видавали себе за дітей. Ці висновки, разом із позовами та високопрофільними інцидентами із підлітками на платформах, таких як Character.AI і Grok, змусили компанії ШІ запровадити більш формальні вікові обмеження. Однак, оскільки система призначає оцінений вік усім користувачам, а не лише неповнолітнім, Бхатія попередила, що помилки неминучі. “Деякі з них будуть неправильними,” сказала вона. “Користувачам потрібно більше знати про те, що станеться у таких випадках, і вони повинні мати можливість легко змінювати свій призначений вік, якщо він неправильний.” Система прогнозування віку вже запущена на спланованих для споживачів ChatGPT, а запуск у Європейському Союзі очікується найближчими тижнями.