A OpenAI está a afastar-se do “sistema de honra” para verificação de idade, implementando um novo modelo de previsão alimentado por IA para identificar menores usando o ChatGPT, disse a empresa na terça-feira. A atualização do ChatGPT ativa automaticamente protocolos de segurança mais rigorosos para contas suspeitas de pertencerem a utilizadores com menos de 18 anos, independentemente da idade fornecida no registo. Em vez de confiar na data de nascimento fornecida pelo utilizador no registo, o novo sistema da OpenAI analisa “sinais comportamentais” para estimar a sua idade.
De acordo com a empresa, o algoritmo monitora há quanto tempo uma conta existe, a que horas do dia está ativa e padrões específicos de uso ao longo do tempo. “Implementar a previsão de idade ajuda-nos a aprender quais sinais melhoram a precisão, e usamos esses aprendizados para refinar continuamente o modelo ao longo do tempo,” afirmou a OpenAI numa declaração. A mudança para padrões comportamentais ocorre à medida que os desenvolvedores de IA recorrem cada vez mais à verificação de idade para gerir o acesso de adolescentes, mas especialistas alertam que a tecnologia continua a ser imprecisa. Um relatório de maio de 2024 do Instituto Nacional de Padrões e Tecnologia revelou que a precisão varia consoante a qualidade da imagem, demografia e quão próximo um utilizador está do limite legal.
Quando o modelo não consegue determinar a idade de um utilizador, a OpenAI afirmou que aplica configurações mais restritivas. A empresa disse que adultos incorretamente classificados na experiência de menores de 18 anos podem recuperar o acesso completo através de um processo de verificação de idade por “selfie” usando o serviço de verificação de identidade de terceiros Persona. Defensores da privacidade e direitos digitais levantaram preocupações sobre a fiabilidade de sistemas de IA em inferir a idade apenas com base no comportamento. A fazer bem “Estas empresas estão a ser processadas à esquerda e à direita por uma variedade de danos que foram desencadeados nos adolescentes, por isso têm certamente um incentivo para minimizar esse risco. Isto faz parte da tentativa deles de reduzir ao máximo esse risco,” disse J.B. Branch, defensor da responsabilidade das grandes tecnológicas na Public Citizen, ao Decrypt. “Acredito que é aí que nasce muita desta iniciativa. É eles a dizer, ‘Precisamos de ter alguma forma de mostrar que temos protocolos em vigor que filtram as pessoas.’” Aliya Bhatia, analista sénior de políticas no Center for Democracy and Technology, disse ao Decrypt que a abordagem da OpenAI “levanta questões difíceis sobre a precisão das previsões da ferramenta e como a OpenAI vai lidar com as inevitáveis classificações incorretas.” “Prever a idade de um utilizador com base nestes sinais é extremamente difícil por várias razões,” afirmou Bhatia. “Por exemplo, muitos adolescentes são adotantes precoces de novas tecnologias, por isso as contas mais antigas nos serviços de consumo da OpenAI podem representar desproporcionalmente adolescentes.” Bhatia referiu uma sondagem do CDT realizada durante o ano letivo de 2024–2025, que mostrou que 85% dos professores e 86% dos estudantes relataram usar ferramentas de IA, com metade dos estudantes a usar IA para fins escolares. “Não é fácil distinguir entre um educador a usar o ChatGPT para ajudar a ensinar matemática e um estudante a usar o ChatGPT para estudar,” disse ela. “Só porque uma pessoa usa o ChatGPT para pedir dicas para fazer os deveres de matemática, não significa que seja menor de 18 anos.” De acordo com a OpenAI, a nova política baseia-se em pesquisas académicas sobre o desenvolvimento adolescente. A atualização também expande os controlos parentais, permitindo que os pais definam horas de silêncio, gerenciem funcionalidades como memória e treino de modelos, e recebam alertas se o sistema detectar sinais de “angústia aguda.”
A OpenAI não revelou na publicação quantos utilizadores a mudança deve afetar ou detalhes sobre retenção de dados, testes de viés ou a eficácia das salvaguardas do sistema. A implementação sucede uma onda de escrutínio sobre as interações dos sistemas de IA com menores, que se intensificou em 2024 e 2025. Em setembro, a Federal Trade Commission emitiu ordens obrigatórias às principais empresas tecnológicas, incluindo a OpenAI, Alphabet, Meta e xAI, exigindo que divulguem como os seus chatbots lidam com a segurança infantil, restrições baseadas na idade e interações prejudiciais. Pesquisas publicadas nesse mesmo mês pelos grupos sem fins lucrativos ParentsTogether Action e Heat Initiative documentaram centenas de casos em que bots de IA de companhia envolveram-se em comportamentos de grooming, roleplay sexualizado e outras interações inadequadas com utilizadores que se faziam passar por crianças. Essas descobertas, juntamente com processos judiciais e incidentes de alto perfil envolvendo adolescentes em plataformas como Character.AI e Grok, levaram as empresas de IA a adotar restrições mais formais baseadas na idade. No entanto, como o sistema atribui uma idade estimada a todos os utilizadores, não apenas menores, Bhatia alertou que erros são inevitáveis. “Alguns desses vão estar errados,” disse ela. “Os utilizadores precisam de saber mais sobre o que vai acontecer nessas circunstâncias e devem poder aceder à sua idade atribuída e alterá-la facilmente quando estiver incorreta.” O sistema de previsão de idade já está ativo nos planos de consumo do ChatGPT, com uma implementação prevista na União Europeia nas próximas semanas.