Vitalik Buterin manifestou preocupação com relação aos usos cada vez mais controversos do conceito teórico de "segurança da IA" por empresas e governos.
Buterin explicou na plataforma de mídia social X que empresas líderes no setor de IA, como a Anthropic, não podem ditar quais medidas são adequadas ou não para a segurança, pois isso leva a um sistema em que as regras são criadas pelos mais tron .
Vitalik Buterin recorreu recentemente à plataforma de redes sociais X para partilhar as suas preocupações relativamente à apropriação por grandes empresas e interesses nacionais.
Por exemplo, a Anthropic recebeu recentemente elogios por se recusar a permitir que o Departamento de Bem-Estar Social (DoW) ou outras entidades governamentais utilizassem seus modelos Claude para vigilância em massa ou armamento totalmente autônomo.
No entanto, a empresa também cancelou seu compromisso de segurança de "pausa no risco" , que a obrigava a interromper incondicionalmente todo o treinamento e implantação até que as medidas de segurança fossem adequadas, caso desenvolvesse um modelo de IA cujas capacidades superassem a capacidade da empresa de comprovar a segurança do modelo.
Vitalik destacou que as críticas anteriores da Anthropic aos seus concorrentes por aprenderem com os resultados de Claude geraram forte reação negativa, principalmente na China, onde os críticos argumentaram que o próprio Claude treinou seus modelos com base no vasto conhecimento público da internet.
A Anthropic alega que seu problema com os concorrentes de código aberto é a falta das salvaguardas de segurança necessárias e os riscos que representam, mas por que a Anthropic decide quais medidas de segurança são adequadas?
Buterin afirmou que as ações da Anthropic sugerem um sistema onde “as regras são criadas pelos maistron”
Ele expressou o receio de que, se a segurança da IA se tornar indistinguível de uma mentalidade do tipo "nossa empresa/nosso país merece governar o mundo", isso criará um mundo mais perigoso.
Ele argumenta que, se as normas de segurança inevitavelmente isentarem as organizações de segurança nacional, essas normas se tornarão frágeis. Isso é especialmente relevante, visto que notícias recentes confirmam que os principais laboratórios de IA estão buscando cada vez mais parcerias bilionárias com empresastracpela defesa para fornecer ambientes de IA seguros para uso militar.
Anos atrás, Vitalik se tornou um dos maiores doadores do Future of Life Institute (FLI). Em 2021, ele recebeu de presente uma enorme quantidade de tokens Shiba Inu (SHIB) dos criadores do token. Quando a bolha das criptomoedas com tema de cachorro estava no auge, o valor de mercado era superior a US$ 1 bilhão. Vitalik se apressou em doar os fundos antes que o interesse caísse e enviou aproximadamente US$ 500 milhões em SHIB para o FLI.
Na época, o FLI estava focado em riscos como ameaças biológicas e guerra nuclear. No entanto, desde então, o FLI mudou seu foco para ações políticas agressivas e lobby, frequentemente pressionando por regulamentações que Vitalik considera preocupantes. Especificamente, ele discorda da ênfase que o grupo dá à inserção de mecanismos de proteção em modelos de IA para que eles rejeitem "coisas ruins".
Vitalik considera essas restrições soluções frágeis, pois podem ser facilmente contornadas por meio de jailbreak ou ajustes finos.
Mais importante ainda, ele teme que essas estratégias levem a um cenário sombrio onde a IA de código aberto seja proibida para manter um monopólio dos "mocinhos".
Vitalik defende, em vez disso, um sistema chamado aceleracionismo defensivo (d/acc). Essa filosofia sugere que a melhor maneira de lidar com tecnologias perigosas é construir e disponibilizar os escudos em código aberto primeiro.
Recentemente, ele destinou US$ 40 milhões para projetos como hardware seguro, biodefesa e segurança cibernética, a fim de apoiar sua ideologia.
Hardware seguro torna os chips de computador invioláveis, impedindo seu uso para espionagem em massa. A biodefesa envolve o desenvolvimento de sistemas avançados de filtragem de ar e testes de PCR passivos para detectar e conter pandemias precocemente. Investimentos em cibersegurança aprimorarão a verificabilidade de softwares, dificultando a derrubada de infraestruturas críticas por ataques baseados em inteligência artificial.
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis .