tradingkey.logo

Comissão dos EUA se prepara para questionar empresas de IA sobre impacto nas crianças, informa o WSJ

Reuters4 de set de 2025 às 16:50

- A Comissão Federal de Comércio dos EUA (FTC) está se preparando para examinar os riscos à saúde mental dos chatbots de IA para crianças e exigirá documentos internos das principais empresas de tecnologia, incluindo OpenAI, Meta META.O e Character.AI, noticiou o Wall Street Journal nesta quinta-feira.

A agência está preparando cartas para enviar às empresas que operam chatbots populares, disse a reportagem, citando integrantes do governo.

"A Character.AI não recebeu uma carta sobre o estudo da FTC, mas estamos dispostos a trabalhar com os reguladores e parlamentares quando eles começarem a considerar a legislação para esse espaço emergente", disse a empresa.

A FTC, a OpenAI e a Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não pôde verificar a reportagem de forma independente.

A FTC e todo o governo estão focados em cumprir o mandato de Trump "para consolidar o domínio da América em IA, criptomoeda e outras tecnologias de ponta do futuro" sem comprometer a segurança e o bem-estar das pessoas, disse um porta-voz da Casa Branca.

A notícia chega semanas depois que uma reportagem exclusiva da Reuters revelou como a Meta permitiu um comportamento provocante de chatbot com crianças, incluindo permitir que os bots se envolvessem em "conversas românticas ou sensuais".

Na semana passada, a empresa de mídia social disse que adicionaria novas salvaguardas para adolescentes aos seus produtos de inteligência artificial, treinando sistemas para evitar conversas de flerte e discussões sobre automutilação ou suicídio com menores, e limitando temporariamente o acesso a determinados personagens de IA.

Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma queixa à FTC e a procuradores-gerais estaduais, alegando que as plataformas de IA, como Meta AI Studio e Character.AI, permitem a prática não licenciada da medicina ao hospedar "bots de terapia".

O procurador-geral do Texas, Ken Paxton, iniciou uma investigação sobre a Meta e a Character.AI no mês passado por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.

(Reportagem de Harshita Mary Varghese, Akash Sriram e Kritika Lamba em Bengaluru)

((Tradução Redação São Paulo))

REUTERS AC

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI