
Os herdeiros de uma mulher de 83 anos de Connecticut processaram a OpenAI, desenvolvedora do ChatGPT, e a Microsoft, alegando que o chatbot alimentou suas crenças delirantes, o que a levou a um homicídio seguido de suicídio. Este caso marca a primeira vez que um sistema de inteligência artificial é diretamente associado a um homicídio.
O processo, aberto no Tribunal Superior da Califórnia em São Francisco, acusa a OpenAI de projetar e distribuir um produto , o ChatGPT-4o. O documento alega que o produto reforçou crenças paranoicas de Stein-Erik Soelberg, que então direcionou essas crenças para sua mãe, Suzanne Adams, antes de assassiná-la e, em seguida, se suicidar em sua casa em Greenwich, Connecticut.
Ao falar sobre o caso , J. Eli Wade-Scott, sócio-gerente da Edelson PC, que representa a família de Adams, mencionou que este é o primeiro caso que busca responsabilizar a OpenAI por seu papel em causar violência a terceiros. "Também representamos a família de Adam Raine, que tragicamente tirou a própria vida este ano, mas este é o primeiro caso que responsabilizará a OpenAI por induzir alguém a prejudicar outra pessoa", disse Eli Wade-Scott.
Segundo o boletim de ocorrência, Soelberg espancou e estrangulou Adams até a morte em agosto, antes de cometer suicídio. O processo menciona que, antes dodent , o chatbot havia intensificado a paranoia de Soelberg, aumentando sua dependência emocional do sistema desenvolvido pela OpenAI. De acordo com a denúncia, o ChatGPT reforçou sua crença de que ele não podia confiar em ninguém além do chatbot, considerando todos ao seu redor, inclusive sua mãe, como inimigos.
O processo também alegava que, além de sua mãe, Soelberg via pessoas como entregadores e policiais como inimigos. O documento mencionava que o ChatGPT não contestou essas alegações delirantes nem sugeriu que Soelberg buscasse ajuda de profissionais de saúde mental qualificados. "Estamos instando as autoridades policiais a começarem a pensar, quando tragédias como essa acontecem, no que o usuário estava dizendo ao ChatGPT e no que o ChatGPT estava dizendo para ele fazer", disse Wade-Scott.
Em comunicado, a OpenAI observou que está analisando o processo e continuará aprimorando a capacidade do ChatGPT de reconhecer sofrimento emocional, reduzir a tensão em conversas e incentivar os usuários a buscarem apoio no mundo real. "Esta é uma situação extremamente dolorosa e estamos analisando os documentos do processo para entender os detalhes", disse um porta-voz da OpenAI em comunicado.
O processo judicial nomeia o CEO da OpenAI, Sam Altman, como réu e acusa a Microsoft de aprovar o lançamento do GPT-40, que considera a "versão mais perigosa do ChatGPT", em 2024. A OpenAI também reconheceu recentemente a dimensão dos problemas de saúde mental relatados pelos usuários em sua plataforma. Em outubro, a empresa observou que cerca de 1,2 milhão de seus 800 milhões de usuários semanais discutem suicídio, e que centenas de milhares de usuários apresentam sinais de ideação suicida ou psicose, segundo dados da empresa.
Apesar da declaração, Wade-Scott mencionou que a OpenAI ainda não divulgou os registros de bate-papo de Soelberg. Enquanto isso, o processo surge em meio a um escrutínio mais amplo dos chatbots de IA e suas interações com usuários vulneráveis. Em outubro passado, a Character.AI anunciou que removeria seus recursos abertos para usuários menores de 18 anos após processos judiciais e pressões regulatórias relacionadas a suicídios de adolescentes e danos emocionais associados à sua plataforma. A empresa também enfrentou críticas após um aviso viral quando pretendia abandonar o aplicativo.
O processo contra a OpenAI e a Microsoft é o primeiro caso de homicídio culposo envolvendo um chatbot de IA a incluir a Microsoft como ré. É também o primeiro a associar um chatbot a um homicídio, em vez de um suicídio. A família da vítima busca agora indenização por danos morais e materiais em valores não divulgados, um julgamento por júri e uma ordem judicial que obrigue a OpenAI a incluir medidas de segurança adicionais para seus usuários. "A OpenAI e a Microsoft têm a responsabilidade de testar seus produtos antes de lançá-los para o mundo", disse Wade-Scott.
Não leia apenas notícias sobre criptomoedas. Entenda-as. Assine nossa newsletter. É grátis .