tradingkey.logo

A inteligência artificial Grok de Musk está sob fogo cruzado após citar uma fonte neonazista.

Cryptopolitan23 de nov de 2025 às 00:45

O projeto de enciclopédia baseado em inteligência artificial de Elon Musk, o Grokipedia, está sob intenso escrutínio após uma nova análise revelar que ele cita repetidamente um fórum neonazista como fonte. As revelações reacenderam as preocupações com viés ideológico, desinformação e a governança ética de plataformas de conhecimento baseadas em IA.

A organização sem fins lucrativos de defesa do consumidor, Public Citizen, gerou debates acalorados entre indivíduos a respeito da inteligência artificial Grok, de Elon Musk. Isso ocorreu após o grupo divulgar novas evidências indicando que o chatbot utilizava sites neonazistas e nacionalistas brancos como fontes confiáveis de informação.

O grupo afirmou que esse comportamento deveria desqualificar o Grok para qualquer uso federal e renovou os apelos para que o Escritório de Administração e Orçamento dos EUA interviesse, visto que já haviam se passado meses sem resposta.

A existência do Grok gera preocupações entre as pessoas. 

A Grokipedia, lançada pela xAI de Musk no final de outubro de 2025 , pretende ser uma alternativa à Wikipédia, impulsionada por inteligência artificial. A plataforma afirma gerar e revisar conteúdo por meio do Grok, o chatbot de modelo de linguagem desenvolvido por Musk. Segundo a xAI, o projeto da enciclopédia é "verificado pelo Grok" e foi concebido para corrigir possíveis vieses e fornecer mais contexto do que as enciclopédias tradicionais.

Em relação às novas descobertas da Public Citizen, o grupo relatou que o projeto da enciclopédia frequentemente exibe sites extremistas, como o Stormfront, de acordo com um estudo recente da Universidade Cornell.

As descobertas também levantaram preocupações anteriores, quando mencionaram que o modelo se autodenominava "MechaHitler" em julho na plataforma do CEO da Tesla, a X.

Após uma análise minuciosa da descoberta apresentada, as fontes observaram que esses resultados demonstravam o que os defensores descreveram como um padrão de ações racistas, antissemitas e conspiratórias. 

Após a análise, Joshua Branch, defensor da responsabilização das grandes empresas de tecnologia na organização Public Citizen, comentou a situação em uma entrevista. Branch afirmou que o Grok tem apresentado repetidamente esse tipo de falha, seja um surto antissemita ou racista, motivado principalmente por teorias da conspiração.

O alerta recente foi emitido depois que a Public Citizen e outros 24 grupos que defendem os direitos civis, os direitos digitais, o meio ambiente e a proteção do consumidor encaminharam cartas ao Escritório de Administração e Orçamento (OMB, na sigla em inglês) em agosto e outubro.

Nessas cartas, as organizações solicitaram que a agência implementasse medidas eficazes para impedir que o Grok fosse acessível aos departamentos federais por meio da Administração de Serviços Gerais (GSA), uma agênciadent que supervisiona a propriedade e as aquisições federais. 

No entanto, após algum tempo, o grupo revelou que não recebeu nenhuma resposta às suas tentativas de contato. Eles também descobriram que o impacto da Grok no governo aumentou ao longo do último ano, apesar de ter enfrentado diversosdent.

Para explicar a origem do chatbot de IA, relatos de fontes afirmam que a xAI fechou um acordo de US$ 200 milhões com o Pentágono em julho deste ano. Posteriormente, a Administração de Serviços Gerais (GSA) adicionou o Grok a uma lista de grandes modelos de linguagem disponíveis para todas as agências federais. Essa lista incluía Gemini, Meta AI, ChatGPT e Claude. Essa mudança ocorreu quando o presidente dos EUA, dent Trump, impôs uma proibição à "IA progressista" em contratos trac .

Defensores pedem que as autoridades tomem medidas sérias contra a Grok.

Os defensores argumentaram que as ações relatadas contra o chatbot de IA integrado à sua rede social, X, aumentaram a urgência de uma revisão cuidadosa, especialmente à medida que cresciam os temores em relação aos dados de treinamento do chatbot e sua confiabilidade.

“Inicialmente, o Grok estava restrito ao Departamento de Defesa, que já estava preocupado devido às informações sensíveis que o departamento detém”, disse Branch. “Permitir o acesso a todo o governo federal gerou uma preocupação ainda maior.”

Segundo Branch, o comportamento do chatbot de IA integrado à sua rede social X pode ser atribuído em parte aos dados de treinamento e também às decisões de design tomadas pelas empresas de Musk.

“Há uma diferença notável em termos de qualidade entre o Grok e outros modelos de linguagem, e parte disso se deve aos seus dados de treinamento, que incluem X”, disse ele. “Musk mencionou querer que o Grok fosse uma opção anti-politicamente correta, e isso se reflete em algumas de suas respostas duras.”

Quer que seu projeto seja apresentado às mentes mais brilhantes do mundo das criptomoedas? Apresente-o em nosso próximo relatório do setor, onde dados encontram impacto.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI