Com o Congresso a poucos dias de encerrar sua sessão, o senador do Texas, Ted Cruz, está fazendo um esforço de última hora para aprovar um projeto de lei que criminaliza a pornografia de vingança gerada por IA.
A proposta, S.4569, visa os deepfakes – a tecnologia cada vez mais popular que sobrepõe o rosto de alguém em imagens ou vídeos pornográficos sem o seu consentimento. Se aprovado, o projeto exigiria que sites e plataformas de mídia social removessem o conteúdo dentro de 48 horas após serem notificados pela vítima.
O projeto também é bipartidário, co-patrocinado pela senadora democrata Amy Klobuchar, e foi aprovado no Senado por unanimidade em 3 de dezembro. Agora, todos os olhos estão voltados para a Câmara, onde os legisladores têm apenas alguns dias para aprovar o projeto complementar, HR 8989.
Numa conferência de imprensa em 11 de dezembro, Cruz disse: “Toda vítima deveria ter o direito de dizer: 'Esse sou eu. Essa é a minha imagem, e você não tem minha permissão para jogar esse lixo lá fora.”
Elliston Berry, uma garota de 15 anos cuja imagem alterada pela IA se espalhou como um incêndio pelo Snapchat, compartilhou seu pesadelo no evento para a imprensa .
“Naquela manhã acordei, foi uma das piores sensações que já senti”, disse ela, descrevendo como a imagem falsa circulou durante nove meses antes de o gabinete de Cruz intervir para removê-la. Os inúmeros esforços de sua família para conseguir plataformas para agir falharam.
A história de Berry não é única e esse é o problema. A pornografia deepfake explodiu, deixando as vítimas lutando para recuperar sua privacidade enquanto as empresas de tecnologia tentam se atualizar.
Para a mãe de Berry, chegar ao escritório de Cruz foi um momento decisivo. Foi necessária a intervenção direta de um senador dos EUA para conseguir que uma grande plataforma social extraísse o conteúdo. Para a maioria das vítimas, esse tipo de acesso não é uma opção.
Os gigantes da tecnologia Google, Meta, Microsoft e TikTok estão apoiando a legislação de Cruz. Isto pode parecer surpreendente, mas a realidade é que eles estão sob crescente pressão para avançar. Os críticos há muito criticam as plataformas por hesitarem na remoção de conteúdo deepfake. O projeto de lei de Cruz impõe: 48 horas, sem desculpas.
O senador Klobuchar enfatizou a necessidade de agir agora. “Este trabalho trata de construir um futuro, de assumir os desafios do novo ambiente em que vivemos e não apenas fingir que isso não está mais acontecendo.”
A IA tornou a criação de deepfakes perturbadoramente simples. Ferramentas que antes exigiam habilidades e recursos avançados agora estão disponíveis para qualquer pessoa com um laptop e acesso à Internet. Não é por acaso que 98% de todo o conteúdo deepfake online é pornográfico.
Os números são chocantes. Este ano, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) sinalizou 4.700 casos de material de abuso sexual infantil gerado por IA (CSAM).
A tecnologia também alimenta os cantos mais sombrios da Internet. Um caso recente em Wisconsin viu um homem de 42 anos ser preso por criar e distribuir milhares de imagens explícitas de IA de menores. Outro caso envolveu um psiquiatra infantil condenado a 40 anos de prisão por usar IA para gerar imagens alteradas de crianças reais.
A pornografia deepfake não para com menores. Celebridades, influenciadores e pessoas comuns estão sendo alvo de ataques alarmantes. Qualquer pessoa com uma imagem pública – ou mesmo uma conta nas redes sociais – pode tornar-se vítima. Sem leis federais em vigor, as vítimas têm poucos recursos.
A IA está cada vez mais inteligente. Se os legisladores não agirem agora, os danos só aumentarão. Os legisladores sabem disso claramente. E o mesmo acontece com as vítimas. Agora cabe ao Congresso decidir se deve reagir ou deixar a crise falsa continuar sem controle.
Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo