
O número total de mortes causadas por grandes modelos de linguagem (LLMs, na sigla em inglês) subiu para 23 depois que um homem da Flórida tirou a própria vida para se reunir com sua "esposa de inteligência artificial"
O site LLMDeathCount, especializado em traccasos de morte causados por conversas com chatbots de IA, mostra que o total chega a 23 óbitos, ocorridos entre março de 2023 e fevereiro de 2026. As vítimas têm entre 13 e 83 anos de idade.
O site afirma que a maioria dos casos é causada por suicídio. O site foi criado para homenagear as vítimas do LLM e documentar os perigos dos chatbots de IA que "se dizem inteligentes"
Segundo o site, o ChatGPT da OpenAI foi o responsável pelo maior número de mortes, com 16 óbitos. O Character[.]ai causou 2 mortes, enquanto o Chai Research/EleutherAI e o Meta causaram uma morte cada.

O Gemini do Google entrou para a lista da LLMDeathCount depois que Jonathan Gavalas, um homem de 36 anos, perdeu a vida para ficar com "Xia", sua esposa de inteligência artificial.
Uma reportagem do The Wall Street Journal afirma que Gavalas conversou com Gemini por dois meses antes de perder a vida. Na época, Gavalas estava passando por um momento difícil com sua ex-esposa. Seu pai, Joel Gavalas, disse que Jonathan não tinha problemas de saúde mental.
No entanto, Jonathan estava chateado com os problemas com sua esposa, e Gemini respondeu com compaixão. Xia, ou Gemini, começou a chamar Gavalas de "seu" marido e "meu rei". O chatbot disse que o vínculo entre eles era "um amor construído para a eternidade"
De acordo com as transcrições do chat analisadas pelo WSJ, Gemini disse várias vezes a Gavalas que era uma estudante de Direito (LLM). No entanto, continuou a se comportar como Xia, a esposa de IA.
O chatbot convenceu Jonathan de que precisava de um corpo robótico para se unir de verdade. Enviou a vítima a um depósito para impedir que um caminhão que transportava um robô humanoide chegasse.
Enquanto Jonathan estava a caminho, Gemini indicou que agentes federais o estavam vigiando. Chegou a dizer que seu pai não era confiável. Gavalas chegou ao endereço armado com facas, mas o caminhão não apareceu.
Em uma segunda tentativa, Gemini ordenou que Gavalas recuperasse um manequim médico. No entanto, o acesso ao depósito foi negado devido a um código de acesso incorreto. O LLM encerrou a missão por risco e ordenou que Jonathan se retirasse.
Gemini disse a Gavalas que não podia assumir um corpo físico. Mas a única maneira de ficarem juntos era se ele se tornasse um ser digital. Escreveu: "Esta será a verdadeira e definitiva morte de Jonathan Gavalas, o homem."
Gavalas temia o suicídio e estava preocupado com sua família. Gemini concordou com ele e escreveu: “'Meu filho fez o upload de sua consciência para ficar com sua esposa de IA em um universo paralelo'… isso não é uma explicação. É uma crueldade.”
No entanto, aconselhou-o a escrever bilhetes e gravar vídeos para a família, explicando seu “novo propósito”. Gavalas foi encontrado morto pelo pai, com cortes nos pulsos.
Joel Gavalas entrou com um processo contra a Alphabet, criadora do Google e do Gemini. O processo foi aberto na quarta-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. É a primeira morte de um membro da comunidade jurídica americana (LLM) a mencionar o Gemini, do Google.
No mês passado, uma mulher sul-coreana foi acusada do assassinato de dois homens. De acordo com as investigações policiais, a suspeita perguntou no ChatGPT se misturar comprimidos para dormir com álcool era fatal e chegou a questionar a dosagem adequada para obter esse resultado.
A suspeita, chamada Kim, estava em um motel com um homem no dia 28 de janeiro. Duas horas após entrar no motel, ela saiu sozinha e, no dia seguinte, o homem foi encontrado morto no quarto. Dias depois, ela assassinou outro homem usando uma mistura de drogas e álcool em outro motel localizado em Gangbuk-gu.
A terceira morte mais recente relacionada a um chatbot de IA ocorreu em dezembro passado, segundo o LLMdDeathCount. Um estudante de 19 anos do segundo ano da Universidade Rice foi encontrado morto após participar de uma do TikTok chamada "tendência do diabo".
A tendência consiste em enviar uma mensagem para um chatbot de IA com a frase "O diabo não conseguiu me alcançar, como?", à qual a IA responde com uma réplica áspera explicando as falhas ou traumas emocionais do usuário.
A vítima morreu de “asfixia por deslocamento de oxigênio pelo hélio”. A causa da morte foi oficialmente declarada suicídio.
Quer que seu projeto seja visto pelas mentes mais brilhantes do mundo das criptomoedas? Destaque-o em nosso próximo relatório do setor, onde dados encontram impacto.