A UNICEF fez um apelo urgente na quarta-feira para que os governos criminalizem o material de abuso sexual infantil gerado por IA, citando evidências alarmantes de que pelo menos 1,2 milhões de crianças em todo o mundo tiveram suas imagens manipuladas em deepfakes sexualmente explícitos no último ano. Os números, revelados na fase 2 do projeto de pesquisa Disrupting Harm, liderado pelo Escritório de Estratégia e Evidências Innocenti da UNICEF, ECPAT International e INTERPOL, mostram que, em alguns países, o número representa uma em 25 crianças, o equivalente a uma criança em uma sala de aula típica, de acordo com uma declaração de quarta-feira e um breve informativo. A pesquisa, baseada em uma pesquisa doméstica representativa de aproximadamente 11.000 crianças em 11 países, destaca como os perpetradores agora podem criar imagens sexuais realistas de uma criança sem sua participação ou conhecimento.
Em alguns países estudados, até dois terços disseram que se preocupam que a IA possa ser usada para criar imagens ou vídeos sexuais falsos deles, embora os níveis de preocupação variem amplamente entre os países, de acordo com os dados. “Devemos ser claros. Imagens sexualizadas de crianças geradas ou manipuladas usando ferramentas de IA são material de abuso sexual infantil (CSAM)”, disse a UNICEF. “O abuso por deepfake é abuso, e não há nada de falso sobre o dano que causa.” O apelo ganha urgência à medida que as autoridades francesas invadiram na terça-feira os escritórios do X em Paris como parte de uma investigação criminal sobre suposto material de pornografia infantil ligado ao chatbot de IA da plataforma, Grok, com promotores convocando Elon Musk e vários executivos para depoimento. Um relatório do Center for Countering Digital Hate divulgado no mês passado estimou que o Grok produziu 23.338 imagens sexualizadas de crianças ao longo de um período de 11 dias entre 29 de dezembro e 9 de janeiro.
O breve informativo divulgado junto com a declaração observa que esses desenvolvimentos representam “uma escalada profunda dos riscos que as crianças enfrentam no ambiente digital”, onde uma criança pode ter seu direito à proteção violado “sem nunca enviar uma mensagem ou sequer saber que isso aconteceu.” A Internet Watch Foundation do Reino Unido identificou quase 14.000 imagens suspeitas geradas por IA em um único fórum da dark web em um mês, cerca de um terço confirmado como criminosas, enquanto as autoridades sul-coreanas relataram um aumento de dez vezes nas ofensas sexuais relacionadas a IA e deepfake entre 2022 e 2024, com a maioria dos suspeitos identificados como adolescentes. A organização pediu urgentemente que todos os governos expandam as definições de material de abuso sexual infantil para incluir conteúdo gerado por IA e criminalizem sua criação, aquisição, posse e distribuição. A UNICEF também exigiu que os desenvolvedores de IA implementem abordagens de segurança por design e que as empresas digitais impeçam a circulação de tal material. O breve informativo pede que os Estados exijam que as empresas realizem diligência devida em relação aos direitos das crianças, especialmente avaliações de impacto nos direitos das crianças, e que todos os atores na cadeia de valor da IA incorporem medidas de segurança, incluindo testes de segurança pré-lançamento para modelos de código aberto. “O dano causado pelo abuso de deepfake é real e urgente”, alertou a UNICEF. “As crianças não podem esperar que a lei acompanhe.” A Comissão Europeia iniciou na semana passada uma investigação formal para verificar se o X violou as regras digitais da UE ao não impedir que o Grok gerasse conteúdo ilegal, enquanto as Filipinas, Indonésia e Malásia proibiram o Grok, e os reguladores do Reino Unido e Austrália também abriram investigações.