tradingkey.logo
tradingkey.logo

China divulga novas regras para restringir chatbots de IA de promoverem jogos de azar e automutilação

Cryptopolitan29 de dez de 2025 às 11:58

Órgãos reguladores na China planejam reprimir chatbots com inteligência artificial que estão levando pessoas a pensamentos suicidas, automutilação e jogos de azar. Essa medida surge em um momento em que duas das principais empresas de chatbots da China abriram recentemente seu capital na Bolsa de Valores de Hong Kong.

Informações sugerem que as medidas recentemente propostas, anunciadas no sábado, serão aplicadas a produtos ou serviços de IA oferecidos ao público na China que simulam a personalidade humana e envolvem os usuários emocionalmente por meio de textos, imagens, áudio ou vídeo.

Espera-se que as propostas da China protejam os menores da automutilação

De acordo com a minuta das regras divulgada no sábado pela Administração do Ciberespaço, estas visam o que foi denominado de "serviços de IA interativos semelhantes aos humanos", conforme tradução do documento em chinês feita pela CNBC

O projeto de regulamentação contém diversas propostas. Por exemplo, os chatbots de IA não podem gerar conteúdo que incentive a automutilação ou o suicídio, praticar violência verbal ou manipulação emocional que possa prejudicar a saúde mental dos usuários.

Além disso, os chatbots de IA não devem criar conteúdo obsceno, violento ou relacionado a jogos de azar. De acordo com a minuta das regras, se um usuário sugerir suicídio, a empresa de IA deverá designar um humano para assumir a conversa e contatar imediatamente o responsável legal do usuário ou uma pessoa designada.

O projeto de lei também propõe que menores de idade tenham autorização dos responsáveis para o uso de serviços de companhia emocional, com limites de tempo de uso. De acordo com as novas regras, espera-se que as plataformas de IA determinem se um usuário é adulto ou menor de idade, mesmo que ele não informe sua idade. Em caso de dúvida, as plataformas devem aplicar configurações para menores, permitindo recursos.

Uma vez finalizadas, essas regras representariam a primeira tentativa mundial de regulamentar a IA com características humanas ou antropomórficas, de acordo com Winston Ma, professor da Faculdade de Direito da NYU. Esses avanços ocorrem em um momento em que as empresas têm desenvolvido rapidamente assistentes virtuais e celebridades digitais.

Ao comparar isso com a regulamentação de IA generativa da China de 2023, Ma opinou que esta versão "representa um salto da segurança do conteúdo para o aspecto emocional"

As propostas surgem no momento em que duas startups chinesas de chatbots com IA, Z.ai e Minimax, registraram neste mês pedidos de oferta pública inicial (IPO) em Hong Kong. A Minimax é mais conhecida internacionalmente por seu aplicativo Talkie AI, que permite aos usuários conversar com personagens virtuais.

Segundo a CNBC, o aplicativo e sua versão chinesa, conhecida como Xingye, representaram mais de um terço da receita da empresa nos três primeiros trimestres do ano, com uma média de mais de 20 milhões de usuários ativos mensais durante esse período.

Já a Z.ai, também conhecida como Zhipu, foi registrada sob o nome Knowledge Atlas Technology , mas não divulgou o número de usuários ativos mensais. No entanto, a empresa de IA revelou que sua tecnologia está presente em cerca de 80 milhões de dispositivos, incluindo smartphones, computadores pessoais e veículos inteligentes.

Conforme noticiado anteriormente pela Cryptopolitan , as duas startups de IA, ambas apoiadas pela Alibaba e pela Tencent, têm como meta abrir capital no início de janeiro do próximo ano na Bolsa de Valores de Hong Kong.

Cadastre-se na Bybit agora e ganhe um bônus de US$ 50 em minutos

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos recomendados

KeyAI