
O Fundo das Nações Unidas para a Infância (UNI) apontou, na quarta-feira, para relatos de um rápido aumento no volume de imagens sexualizadas geradas por inteligência artificial que circulam na internet. Essas imagens geradas por IA incluem principalmente casos em que fotografias de crianças foram manipuladas e sexualizadas.
A agência argumentou que o aumento no uso de ferramentas de geração de imagens ou vídeos com inteligência artificial que produzem material de abuso sexual infantil agrava os riscos para as crianças por meio das tecnologias digitais. UNICEF também pediu ações urgentes por parte dos governos e da indústria para impedir a criação e a disseminação de conteúdo sexual infantil gerado por inteligência artificial.
Abuso de deepfakes é abuso.
Imagens, vídeos ou áudios sexualizados de crianças, gerados ou manipulados por meio de ferramentas de IA, constituem material de abuso sexual infantil. Mesmo sem uma vítimadent, isso normaliza a exploração sexual de crianças.
UNICEF apela a medidas urgentes para prevenir…
— UNI CEF (@ UNI CEF) 4 de fevereiro de 2026
A organização da ONU observou que, há menos de 5 anos, modelos generativos de alta qualidade exigiam poder computacional e conhecimento especializado consideráveis. No entanto, os modelos de código aberto atuais facilitam a criação de conteúdo de abuso sexual por parte dos perpetradores.
A agência acredita que, embora nenhuma criança real esteja diretamente envolvida, esse tipo de conteúdo normaliza a sexualização infantil e dificulta a identificação das vítimas dent A UNI também argumentou que os perpetradores podem criar imagens sexuais realistas de uma criança sem o envolvimento ou conhecimento dela.
UNICEF afirmou que esse tipo de conteúdo pode violar o direito à proteção da criança sem que ela sequer tenha consciência do ocorrido. A agência também declarou que as crianças enfrentam vergonha, estigma, maior julgamento por parte de colegas e adultos, isolamento social e danos emocionais a longo prazo.
UNI CEF também revelou que o aumento da acessibilidade a ferramentas de geração de imagens ou vídeos com inteligência artificial levou a um aumento na produção e disseminação de materiais de abuso sexual infantil (CSAM). A Internet Watch Foundation (IWF) do Reino Unido encontrou aproximadamente 14.000 suspeitas de terem sido geradas por IA em um único fórum da dark web dedicado a materiais de abuso sexual infantil em apenas um mês. O relatório revelou que um terço dos materiais eram criminosos e que se tratavam dos primeiros vídeos realistas de abuso sexual infantil gerados por IA.
A IWF também descobriu 3.440 vídeos de abuso sexual infantil produzidos por inteligência artificial, um aumento de 26.362% em relação aos 13 vídeos encontrados no ano anterior. Destes, 2.230 (65%) foram classificados como Categoria A por serem extremamente violentos, enquanto outros 1.020 (30%) foram classificados como Categoria B.
A IWF também dent CSAM (Abuso Sexual Infantil por Inteligência Artificial) em plataformas convencionais, incluindo nudes falsos criados em contextos peer-to-peer direcionados a meninas. A organização também apontou um caso na Coreia do Sul, onde as autoridades policiais relataram um aumento de dez vezes nos crimes sexuais envolvendo tecnologias de IA e deepfake entre 2022 e 2024.
A inteligência artificial e os deepfakes envolviam principalmente adolescentes, que constituíam a maioria dos acusados. A pesquisa de Thorny descobriu que 1 em cada 10 adolescentes nos EUA tinha conhecimento de casos em que amigos criaram imagens íntimas sintéticas não consensuais de crianças usando ferramentas de IA.
UNI CEF, a ECPAT International e a INTERPOL também descobriram que, em 11 países, cerca de 1,2 milhão de crianças tiveram suas imagens manipuladas para criar deepfakes com conteúdo sexual explícito por meio de ferramentas de IA em 2025. As agências também relataram que até dois terços das crianças em cerca de 11 países temem que a IA possa ser usada para criar imagens sexuais falsas.
UNICEF argumentou que pais e responsáveis precisam ser informados sobre a exploração e o abuso sexual facilitados pela IA. A agência também pediu que as escolas eduquem osdentsobre os riscos relacionados à IA e os danos que ela causa às pessoas afetadas.
UNI CEF surge num momento em que a ferramenta de IA de Elon Musk, Grok, implementou funcionalidades que impedem a edição de fotos reais de pessoas reais para as mostrar com roupas reveladoras em países onde isso é proibido. A iniciativa surgiu na sequência da preocupação generalizada com as deepfakes sexualizadas criadas por IA.
O governo do Reino Unido pediu à X que controlasse o Grok, enquanto a reguladora Ofcom afirmou estar trabalhando incansavelmente para corrigir o problema. A X declarou em comunicado que bloqueou geograficamente a capacidade de todos os usuários de gerar imagens de pessoas reais de biquíni, roupa íntima e vestimentas similares por meio da conta Grok e no próprio Grok da X em países onde isso é proibido.
Malásia e Indonésia também bloquearam o acesso ao Grok no início do mês passado devido à sua capacidade de gerar deepfakes com conteúdo sexual explícito. Cryptopolitan Foi noticiado no início deste mês que a Indonésia permitiu que a Grok retomasse suas operações depois que X se comprometeu a melhorar a conformidade com as leis do país.
Participe de uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente custa US$ 100/mês.