
Um projeto de lei bipartidário intitulado "Lei de Prevenção de Fraudes por IA" foi proposto por dois legisladores e visa combater o crescente uso indevido de inteligência artificial em golpes, particularmente aqueles que envolvem deepfakes direcionados a funcionários federais.
Esta legislação terá como foco a modernização das leis americanas existentes sobre fraude, de modo que elas levem em consideração o papel que a tecnologia de inteligência artificial desempenhou emdentrecentes de grande repercussão, nos quais áudio ou vídeo gerados por IA enganaram autoridades ou o público.
O projeto de lei, proposto pelos representantes Ted Lieu, democrata da Califórnia, e Neal Dunn, republicano da Flórida, dois legisladores que se cansaram da facilidade e audácia com que os criminosos agora usam a IA em suas práticas enganosas, busca ampliar as penalidades para golpes com IA e criminalizar a personificação de funcionários federais usando IA.
“Com o rápido avanço da tecnologia de IA, nossas leis precisam acompanhar”, disse Dunn em um comunicado anunciando o projeto de lei. “A Lei de Prevenção de Fraudes por IA fortalece as penalidades para crimes relacionados a fraudes cometidas com o auxílio de IA. Tenho orgulho de co-liderar esta legislação para proteger adentdo público e prevenir o uso indevido dessa tecnologia inovadora.”
Lieu concorda e, na semana passada, disse à NBC News que a maioria dos americanos quer "limites sensatos para a IA", pois não acham que um "faroeste completo seja útil".
De acordo com a lei proposta , a pena máxima por fraude será duplicada, passando de US$ 1 milhão para US$ 2 milhões, nos casos em que a IA for usada deliberadamente para facilitar o crime. A lei também incluiria o engano mediado por IA nas defi de fraude postal e fraude eletrônica, o que significa que seria possível processar indivíduos que usam IA para cometer qualquer um dos tipos de fraude.
Em ambos os casos, os criminosos podem ser punidos com multas milionárias e até duas décadas de prisão por fraude postal e três por fraude eletrônica.
O projeto de lei também desaprova a personificação de funcionários federais com deepfakes de IA , destacando casos em que IAs foram usadas em tentativas de imitar a chefe de gabinete da Casa Branca, Susie Wiles, e o secretário de Estado, Marco Rubio, no início deste ano.
A fraude existe desde que a humanidade existe, mas especialistas afirmam que, graças à IA (Inteligência Artificial), a qualidade dos resultados fraudulentos aumentou.
Em dezembro, o FBI alertou que "a IA generativa reduz o tempo e o esforço que os criminosos precisam despender para enganar seus alvos", acrescentando que a IA "pode corrigir erros humanos que, de outra forma, poderiam servir como sinais de alerta para fraudes".
Maura R. Grossman, professora de pesquisa em ciência da computação na Universidade de Waterloo, em Ontário, e advogada, também acredita que a IA possibilita uma nova era de engano: "A IA apresenta uma escala, um alcance e uma velocidade para a fraude que são muito, muito diferentes das fraudes do passado."
No entanto, o fato de facilitar o crime não é o maior problema. Observadores estão preocupados com o fato de que as instituições atuais, como os tribunais, estejam tendo dificuldades para acompanhar o rápido desenvolvimento do setor de IA.
"Os anos dedicados à IA são como anos de cachorro", disse Hany Farid, professor de ciência da computação na Universidade da Califórnia, Berkeley, e cofundador da GetReal Security, uma empresa líder em autenticação de mídia digital, sobre a velocidade do progresso da IA.
No passado, não era muito difícil distinguir conteúdo gerado por IA de conteúdo real, especialmente no que diz respeito a imagens; no entanto, hoje em dia, essas tecnologias se tornaram mais avançadas, e até mesmo os usuários mais experientes têm dificuldade em determinar se uma publicação é real ou gerada por IA.
Em dezembro, o FBI alertou as pessoas para que ficassem atentas a discrepâncias em imagens e vídeos a fim dedentmídias geradas por inteligência artificial: "Procurem por imperfeições sutis em imagens e vídeos, como mãos ou pés distorcidos."
No entanto, Farid acredita que esse conselho antigo está errado e até é prejudicial. "O truque das múltiplas mãos não funciona mais", disse Farid. "Você não pode ficar procurando mãos ou pés. Nada disso funciona."
O projeto de lei proposto por Lieu e Dunn enfatiza a importância de rotular o conteúdo gerado por IA. Ele também esclarece que existe um momento e um lugar certos para a mídia gerada por IA. Por exemplo, se um conteúdo for rotulado como satírico, a etiqueta deixa claro que ele não é autêntico e, portanto, está isento de punição.
Junte-se a uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente US$ 100/mês.