tradingkey.logo

O Google afirma que seu chatbot de IA, Gemini, está enfrentando "ataques de destilação" em larga escala

Cryptopolitan12 de fev de 2026 às 17:20

O chatbot de IA do Google, Gemini, tornou-se alvo de um roubo de informações em larga escala, com invasores bombardeando o sistema com perguntas para copiar seu funcionamento. Uma única operação enviou mais de 100.000 consultas ao chatbot, tentando extrair os padrões secretos que o tornam inteligente.

A empresa informou na quinta-feira que esses chamados "ataques de destilação" estão piorando. Os criminosos enviam uma onda após a outra de perguntas para descobrir a lógica por trás das respostas do Gemini. O objetivo deles é simples: roubar a tecnologia do Google para construir ou aprimorar seus próprios sistemas de IA sem gastar bilhões em desenvolvimento.

O Google acredita que a maioria dos atacantes são empresas privadas ou pesquisadores que buscam obter vantagem sem o esforço. Os ataques vieram de todo o mundo, segundo o relatório . John Hultquist, que lidera o Grupo de Inteligência de Ameaças do Google, afirmou que empresas menores que utilizam ferramentas de IA personalizadas provavelmente enfrentarão ataques semelhantes em breve.

Empresas de tecnologia investiram bilhões de dólares na construção de seus chatbots de IA. O funcionamento interno desses sistemas é tratado como um tesouro. Mesmo com defesas implementadas para detectar esses ataques, os principais sistemas de IA continuam sendo alvos fáceis, pois qualquer pessoa com acesso à internet pode interagir com eles.

No ano passado, a OpenAI apontou o dedo para a empresa chinesa DeepSeek, alegando que ela usava destilação para aprimorar seus modelos. Cryptopolitan noticiou em 30 de janeiro que a Itália e a Irlanda baniram a DeepSeek depois que a OpenAI acusou a empresa chinesa de usar destilação para roubar seus modelos de IA. Essa técnica permite que empresas copiem tecnologias caras a um custo muito menor.

Por que os atacantes estão fazendo isso?

A questão econômica é brutal. Construir um modelo de IA de última geração custa centenas de milhões ou até bilhões de dólares. A DeepSeek, por exemplo, construiu seu modelo R1 por cerca de seis milhões de dólares usando destilação, enquanto o desenvolvimento do ChatGPT-5 ultrapassou os dois bilhões de dólares, segundo relatos da indústria. Roubar a lógica de um modelo reduz esse investimento massivo a quase nada.

Segundo o Google, muitos dos ataques ao Gemini visaram os algoritmos que o ajudam a "raciocinar" ou processar informações. Empresas que treinam seus próprios sistemas de IA com dados sensíveis — como 100 anos de estratégias de negociação ou informações de clientes — agora enfrentam a mesma ameaça.

“Digamos que seu mestrado em Direito tenha sido baseado em 100 anos de pensamento secreto sobre a maneira como você negocia. Teoricamente, você poderia destilar parte disso”, explicou Hultquist.

Hackers patrocinados por estados-nação entram na caçada

O problema vai além de empresas gananciosas. O APT31, um grupo de hackers ligado ao governo chinês e alvo de sanções dos EUA em março de 2024, usou o Gemini no final do ano passado para planejar ciberataques contra organizações americanas.

O grupo combinou o Gemini com o Hexstrike, uma ferramenta de hacking de código aberto capaz de executar mais de 150 programas de segurança. Eles analisaram falhas de execução remota de código, maneiras de burlar a segurança da web e ataques de injeção de SQL – todos direcionados a alvos específicos nos EUA, de acordo com o relatório do Google.

Cryptopolitan já havia abordado preocupações semelhantes sobre segurança de IA, alertando que hackers estavam explorando vulnerabilidades em IA. O caso do APT31 mostra que esses alertas estavam corretos.

Hultquist apontou duas grandes preocupações: adversários operando em intrusões completas com mínima ajuda humana e a automatização do desenvolvimento de ferramentas de ataque. "Essas são duas maneiras pelas quais os adversários podem obter grandes vantagens e avançar no ciclo de intrusão com mínima interferência humana", disse ele.

O intervalo entre a descoberta de uma vulnerabilidade de software e a implementação de uma correção, conhecido como lacuna de patches, pode aumentarmatic. As organizações geralmente levam semanas para implantar defesas. Com agentes de IA encontrando e testando vulnerabilidadesmatic, os invasores poderiam agir muito mais rapidamente.

“Teremos que aproveitar as vantagens da IA e, cada vez mais, remover os humanos do processo, para que possamos responder na velocidade das máquinas”, disse Hultquist ao The Register.

Os riscos financeiros são enormes. O relatório de 2024 da IBM sobre violações de dados constatou que o roubo de propriedade intelectual agora custa às organizações US$ 173 por registro, com um aumento de 27% nas violações focadas em propriedade intelectual em relação ao ano anterior. Os pesos dos modelos de IA representam os alvos de maior valor nessa economia subterrânea – um único modelo de IA roubado pode valer centenas de milhões no mercado negro.

O Google desativou contas ligadas a essas campanhas, mas os ataques continuam vindo de "todo o mundo", disse Hultquist. À medida que a IA se torna mais poderosa e mais empresas dependem dela, espere que essa corrida pelo ouro digital se intensifique. A questão não é se haverá mais ataques, mas se os defensores conseguirão acompanhar o ritmo.

Aprimore sua estratégia com mentoria ideias diárias - 30 dias de acesso gratuito ao nosso programa de trading.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.
KeyAI