tradingkey.logo

Hackers patrocinados por Estados-nação da Rússia, Irã, Coreia do Norte e China estão usando IA apenas para tarefas básicas

Cryptopolitan25 de fev de 2026 às 18:55

Empresas de tecnologia e autoridades governamentais continuam alertando sobre o perigo que a inteligência artificial pode representar para inimigos estrangeiros, mas novas evidências apontam para uma realidade diferente. Relatórios recentes mostram que grupos patrocinados por Estados estão utilizando as mesmas ferramentas disponíveis publicamente que usuários comuns da internet, e muitas vezes enfrentando os mesmos desafios.

A OpenAI divulgou recentemente detalhes sobre como grupos ligados ao governo tentaram usar suas plataformas.

O caso mais notável veio de uma campanha de influência chinesa que foi dent quando um agente da lei chinês usou o ChatGPT como um diário pessoal. O agente escreveu sobre uma operação que tinha como alvo críticos da China que viviam em outros países.

De acordo com a OpenAI , a campanha envolveu centenas de operadores e milhares de contas falsas em redes sociais

A operação tentou se passar por agentes de imigração dos Estados Unidos para intimidar umdent , alegando falsamente que suas declarações públicas violavam a lei americana. Em outros casos, os operadores usaram documentos falsificados, supostamente emitidos por um tribunal do condado, para tentar derrubar as contas de mídias sociais de críticos.

Obituários falsos e documentos forjados fazem parte de uma campanha de assédio

Criaram um obituário falso e fotos de lápides para espalhar boatos falsos sobre a morte de um dissidente dent Esses boatos de fato apareceram online em 2023, conforme confirmado por um artigo da Voz da América em chinês. Ben Nimmo, que lidera as investigações na OpenAI, classificou a ação como assédio industrializado direcionado a críticos do Partido Comunista Chinês por meio de múltiplos canais.

O uso do ChatGPT como ferramenta de registro acabou expondo a operação. O ChatGPT funcionava como um diário para o agente rastrear trac rede secreta, enquanto outras ferramentas geravam a maior parte do conteúdo que era disseminado pelas redes sociais. A OpenAI baniu o usuário após detectar a atividade.

Investigadores da OpenAI compararam as descrições do usuário do ChatGPT com atividades online reais. O usuário descreveu ter forjado a morte de umdentchinês, criando um obituário falso e fotos de lápides para publicação online.

Em outro caso, o usuário do ChatGPT pediu ao sistema que criasse um plano para prejudicar a reputação da futura primeira-ministra japonesa Sanae Takaichi, fomentando a indignação contra as tarifas americanas. O ChatGPT recusou. Mas, no final de outubro, quando Takaichi assumiu o poder, hashtags surgiram em um fórum popular de artistas gráficos japoneses atacando-a e reclamando das tarifas.

O relatório da OpenAI também abordou diversas operações fraudulentas originárias do Camboja que utilizaram a plataforma para golpes amorosos e de investimento, além de campanhas de influência ligadas à Rússia, visando a Argentina e a África.

Um relatório da Microsoft mostra padrões de uso básicos semelhantes

A Microsoft publicou um relatório separado em conjunto com a OpenAI, analisando como agentes estatais da Rússia, Coreia do Norte, Irã e China estão testando grandes modelos de linguagem para apoiar operações de ciberataque. Ambas as empresas interromperam os esforços de cinco agentes ligados a esses estados, encerrando suas contas.

O relatório constatou que esses agentes queriam usar os serviços principalmente tarefas simples, como pesquisar informações disponíveis publicamente, traduzir conteúdo, corrigir erros de código e executar tarefas básicas de programação. Até o momento, não foram encontrados ataques importantes ou novos que utilizem esses modelos.

Essa discrepância entre o medo e a realidade ocorre durante a acirrada competição entre Washington e Pequim pelo controle dessa tecnologia. O papel que ela desempenha em assuntos militares e econômicos tornou-se um ponto central de disputa . Recentemente, o Pentágono informou a outra empresa, a Anthropic , que ela tem até sexta-feira para remover certos recursos de segurança de seu modelo ou corre o risco de perder um contrato de trac .

A Microsoft afirmou estar trabalhando em princípios para reduzir os riscos do uso indevido dessas ferramentas por grupos patrocinados por Estados-nação e organizações criminosas. Esses princípios incluem identificar e deter mal-intencionados , informar outros provedores de serviços, colaborar com outros grupos e ser transparente.

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI