
O governo coreano está considerando medidas regulatórias contra o chatbot de inteligência artificial (IA) generativa Grok, da xAI, empresa de Elon Musk. Isso ocorre após diversas críticas direcionadas ao chatbot e seu envolvimento na geração e distribuição de imagens deepfake com conteúdo sexualmente exploratório.
A informação foi divulgada por um veículo de notícias local, o Electronic tron , que mencionou que a Comissão de Proteção de Informações Pessoais (PIPC) iniciou uma investigação preliminar sobre a Grok após as alegações terem sido relatadas no condado por vários indivíduos.
O processo preliminar visa confirmar se a violação realmente ocorreu e se o assunto está dentro de sua jurisdição, antes que uma investigação formal possa ser iniciada.
Segundo relatos , a revisão surge na sequência de várias denúncias que vieram à tona localmente e no exterior, acusando o Grok de ser usado para criar imagens deepfake explícitas e sem consentimento, a maioria delas envolvendo pessoas reais e menores de idade.
Com isso, o PICP deverá determinar seus próximos passos após analisar a explicação fornecida pela Grok e outros documentos comprobatórios. A agência também deverá analisar as tendências regulatórias globais, que influenciarão sua tomada de decisão.
Nos termos da Lei de Proteção de Informações Pessoais, alterar ou gerar imagens sexuais de indivíduosdentsem consentimento pode constituir tratamento ilegal de dados pessoais.
Os chatbots de IA, integrados à plataforma social X e que oferecem geração de texto e imagem, têm enfrentado diversas críticas desde o ano passado pela criação de imagens falsas de pessoas reais. O chatbot tem sido usado para criar todo tipo de imagem comprometedora, o que gerou reprovação pública.
Segundo a organização não governamental global Center for Countering Digital Hate, estima-se que o Grok tenha sido usado para gerar mais de três milhões de imagens sexualmente explícitas entre 29 de dezembro de 2025 e 8 de janeiro de 2026.
A organização afirma que, dentre esse número, mais de 23.000 eram imagens de menores geradas pelo chatbot. O centro alertou que a rápida disseminação das imagens geradas pela IA do Grok levou à circulação em larga escala de conteúdo explícito online.
O centro também alertou sobre os sérios riscos de segurança que o aplicativo representa para as crianças. Como resultado dessa ameaça, países como Estados Unidos, Reino Unido, França, Canadá e outros iniciaram investigações , enquanto países como Indonésia, Filipinas e Malásia bloquearam o acesso ao Grok.
Em resposta à controvérsia, a xAI anunciou no início deste ano que havia implementado certas medidas técnicas para evitá-la.
A plataforma afirmou ter impedido que usuários gratuitos e pagos editassem ou gerassem imagens de pessoas reais, acrescentando que anunciará novas medidas de segurança em breve.
Na Coreia do Sul, a Comissão de Mídia e Comunicações (KMCC) exigiu medidastronde proteção à juventude da plataforma X em 14 de janeiro. O órgão regulador coreano informou à plataforma de mídia social que sua empresa de inteligência artificial precisa apresentar um plano para impedir a geração de conteúdo ilegal ou prejudicial.
Além disso, o órgão regulador acrescentou ainda que a empresa precisa limitar o acesso de menores a esse tipo de conteúdo.
Atualmente, a X possui um responsável pela proteção da juventude designado na Coreia, em conformidade com a lei, e apresenta relatórios anuais sobre o cumprimento das normas. A KMCC solicitou à plataforma que apresente documentação adicional referente ao protocolo de segurança da Grok, observando que imagens sexuais não consensuais criadas e distribuídas em sua plataforma, especialmente envolvendo menores, constituem crime na Coreia.
A comissão estabeleceu um prazo de duas semanas. Caso a X não responda ou ignore a solicitação, poderá ser aplicada uma multa administrativa de até 10 milhões de won (US$ 6.870). Medidas semelhantes foram adotadas em outros países, onde a xAI foi incumbida de desenvolver estratégias para conter o crescimento dessa ameaça.
Assim como a Coreia, esses países também anunciaram multas substanciais caso a empresa não elabore e apresente um relatório demonstrando as medidas que tomou para limitar o aumento dessa ameaça.
Quer que seu projeto seja apresentado às mentes mais brilhantes do mundo das criptomoedas? Apresente-o em nosso próximo relatório do setor, onde dados encontram impacto.