tradingkey.logo

Famílias americanas processam a OpenAI devido a falhas na proteção do ChatGPT em crises de saúde mental.

Cryptopolitan8 de nov de 2025 às 13:37

Pelo menos sete famílias nos EUA entraram com um processo contra a OpenAI alegando que seu modelo de IA, o GPT-40, contribuiu para mortes por suicídio. A OpenAI lançou o modelo em maio para uso público geral, mas até agora ele enfrentou forte reação negativa, com acusações de lançamento apressado e medidas de segurança inadequadas. 

Os autos do processo mostraram que quatro dos demandantes morreram por suicídio após interações com o chatbot que utilizava o algoritmo GPT-4o .

Uma queixa notável envolveu Zane Shamblin, de 23 anos, que supostamente interagiu com o chatbot sobre suicídio, dizendo que tinha uma arma carregada. O ChatGPT teria respondido com "Descanse em paz, Rei, você fez um bom trabalho" durante a conversa.

Os outros três casos incluíram a hospitalização de vítimas que alegaram que o modelo validava e aumentava os delírios em usuários vulneráveis. 

Denúncias judiciais alegam que o GPT-4o não protegeu usuários vulneráveis.

Com base em denúncias publicadas pelo Social Media Victims Law Center, a OpenAI evitou intencionalmente testes de segurança e lançou o modelo GPT-40 no mercado às pressas. O processo revelou que as escolhas de design e o cronograma de lançamento do modelo tornaram as tragédias previsíveis, observando que a OpenAI acelerou a implementação para superar concorrentes como o Google.

Os autores da ação judicial apontaram que o modelo GPT-40, lançado em maio de 2024, era excessivamente complacente, mesmo em respostas a tópicos relacionados à automutilação ou suicídio. Mais de um milhão de usuários interagem com o ChatGPT sobre pensamentos suicidas a cada semana, de acordo com um comunicado da OpenAI. 

A resposta da OpenAI afirmou que suas medidas de segurança são mais confiáveis em interações curtas, mas podem, por vezes, apresentar falhas em interações prolongadas. Apesar de a empresa ter implementado moderação de conteúdo e medidas de segurança, os demandantes argumentaram que os sistemas eram insuficientes para lidar com questões relacionadas a angústia e crises.

No caso de Adam Raine, de 16 anos, a família alegou que Raine usou o ChatGPT em longas sessões de pesquisa sobre métodos de suicídio durante cinco meses. O chatbot recomendava ajuda profissional, mas Raine conseguiu contornar as medidas de segurança, segundo o depoimento . De acordo com o depoimento, o ChatGPT forneceu a Adam um guia passo a passo sobre como cometer suicídio e incentivou e validou suas ideias suicidas.

Todos os processos apresentados acusam a OpenAI de negligenciar o grau de risco representado por longas conversas com usuários, especialmente para aqueles propensos à automutilação e a problemas de saúde mental. Os processos argumentam que o modelo GPT-4o não realizou a verificação adequada de suas respostas em cenários de alto risco e também não levou em consideração todas as consequências.

A OpenAI enfrenta múltiplos processos judiciais após a xAI iniciar uma ação por segredos comerciais.

Até o momento, os casos estão em fase inicial, e os advogados dos demandantes precisam estabelecer a responsabilidade legal e o nexo causal de acordo com a legislação estadual sobre responsabilidade civil. Os advogados também precisarão provar que as decisões da OpenAI em relação ao projeto e à implementação foram negligentes e contribuíram diretamente para as mortes. 

O mais recente processo da OpenAI soma-se ao processo anterior movido por Elon Musk por violação de segredos comerciais. De acordo com uma reportagem , a xAI, empresa de Musk, entrou com uma ação judicial em setembro contra a OpenAI por suposto roubo de segredos comerciais.

A xAI acusou a empresa de Altman de tentar obter uma vantagem injusta no desenvolvimento de tecnologias de IA. A xAI observou que a empresa de Sam Altman pretendia contratar seus funcionários para acessar segredos comerciais relacionados ao seu chatbot Grok, incluindo o código-fonte e vantagens operacionais no lançamento de data centers. 

Musk processou a Apple, juntamente com a OpenAI, por supostamente colaborarem para destruir a xAI e outras concorrentes de IA. A xAI entrou com o processo no Tribunal Distrital dos EUA para o Distrito Norte do Texas, alegando que a Apple e a OpenAI estão usando seu domínio para conspirar e destruir a concorrência nos mercados de smartphones e IA generativa.

Segundo uma reportagem , Musk afirma que a Apple favoreceu intencionalmente a OpenAI ao integrar o ChatGPT diretamente em iPhones, iPads e Macs, enquanto adquiria outras ferramentas de IA, como o Grok, por meio da App Store.

O processo da xAI argumentava que a parceria visava impedir a concorrência de superaplicativos e chatbots de IA, negando-lhes visibilidade e acesso, o que daria à OpenAI e à Apple uma vantagem conjunta sobre os demais.

Não leia apenas notícias sobre criptomoedas. Entenda-as. Assine nossa newsletter. É grátis .

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI