
A Anthropic lançou uma prévia limitada para pesquisa do Claude Code Security, uma nova ferramenta que analisa softwares em busca de vulnerabilidades e recomenda correções, marcando um passo significativo no uso de inteligência artificial para defesa cibernética e causando grande impacto no setor de segurança cibernética.
A ferramenta, integrada à plataforma Claude Code da Anthropic, já está disponível para clientes Enterprise e Team, com acesso acelerado gratuito oferecido aos mantenedores de projetos de código aberto. A novidade surge em um momento em que a empresa de IA sediada em São Francisco afirma esperar que a IA analise uma parcela significativa do código mundial em um futuro próximo.
As ferramentas de segurança existentes só funcionam para padrões de problemas comuns, como senhas expostas ou criptografia desatualizada.
O Claude Code Security pretende ir além da simples correspondência de padrões. Ele analisa toda a base de código da mesma forma que um pesquisador humano faria, seguindo o caminho que os dados percorrem em um sistema e detectando problemas que os analisadores padrão não identificam.
Os resultados passam por várias rodadas de verificação antes mesmo de um desenvolvedor vê-los, reduzindo os becos sem saída. Cada problema também é classificado de acordo com sua gravidade, para que as equipes saibam por onde começar.
O sistema é executado no Claude Opus 4.6, o modelo mais recente da Anthropic , que a própria equipe Frontier Red Team da empresa vem testando exaustivamente. Esses testes revelaram mais de 500 vulnerabilidades em bases de código aberto em produção — algumas delas presentes há décadas sem serem detectadas, mesmo após anos de revisão por especialistas.
A Anthropic afirma estar em processo de notificação dos responsáveis por esses projetos. A empresa também vem utilizando o Claude em seu próprio código interno e afirma que os resultados têm sidotron.
A notícia abalou os investidores em cibersegurança. As ações da CrowdStrike caíram 6,8% na sexta-feira e as da Okta recuaram 9,2%, à medida que os mercados começaram a questionar se as ferramentas de IA poderiam afetar os negócios das empresas de segurança já estabelecidas.
A Cloudflare perdeu 6,7%, a SailPoint caiu 9,1% e a Palo Alto Networks recuou 1,5%. A Zscaler teve queda de 5,47%. O ETF Global X Cybersecurity, que acompanha empresas de segurança cibernética do mundo todo, fechou o dia com queda de quase 5%.
Nem todos consideraram a reação justificada. Analistas do Barclays a classificaram como "incongruente", afirmando que uma ferramenta criada para segurança de código não compete diretamente com o que empresas como CrowdStrike ou Palo Alto Networks realmente fazem.
Mas a discrepância entre o que assustou os mercados e o que os analistas estão ignorando contrasta de forma incômoda com um fato concreto: a IA da Anthropic revelou mais de 500 vulnerabilidades em bases de código em produção que estavam lá há anos, em alguns casos décadas, sem que nenhum especialista humano as tivesse detectado.
Independentemente dos limites competitivos que os analistas estabeleçam, a ferramenta fez algo que a indústria de segurança não havia conseguido fazer sozinha.
O momento do lançamento traz consigo uma ironia incômoda. O Claude Opus 4.6, o mesmo modelo que agora está sendo apresentado como defensor de segurança, foi responsabilizado poucos dias antes por uma perda de US$ 1,78 milhão no DeFi Moonwell.
O nível de dificuldade para causar danos sérios com código escrito por IA caiu tanto que já não exige um atacante. Especialistas em segurança vêm alertando sobre essa mudança há meses.
A Anthropic reconheceu a mesma tendência em seu próprio comunicado, alertando que "grupos com menos experiência e recursos agora podem potencialmente realizar ataques em larga escala dessa natureza"
“Os atacantes usarão IA para encontrar vulnerabilidades exploráveis mais rapidamente do que nunca”, afirmou . “Mas os defensores que agirem rapidamente poderão encontrar essas mesmas vulnerabilidades, corrigi-las e reduzir o risco de um ataque.”
Sua pesquisa interna, publicada em dezembro de 2025, foi além, mostrando que uma versão anterior do modelo, Claude Opus 4.5, poderia identificar e explorar dent dent em trac no valor de até US$ 4,6 milhões em um ambiente controlado, com mínima intervenção humana.
A empresa tinha consciência de que seus modelos poderiam ser vulneráveis a ataques duplos. O Claude Code Security é a sua resposta para esse problema. Ele oferece a mesma capacidade e a coloca nas mãos dos defensores antes que os atacantes cheguem lá primeiro.
A OpenAI, concorrente da Anthropic, lançou sua própria ferramenta de segurança automatizada, chamada Aardvark, em outubro do ano passado, sinalizando que a segurança orientada por IA está se tornando um campo de batalha competitivo.
Quer que seu projeto seja visto pelas mentes mais brilhantes do mundo das criptomoedas? Destaque-o em nosso próximo relatório do setor, onde dados encontram impacto.