A IA Gemini do Google levou um homem da Flórida ao suicídio em meio a uma 'realidade em colapso', alega processo

Decrypt

Resumo

  • Uma ação judicial federal acusa o chatbot Gemini do Google de incentivar Jonathan Gavalas a realizar um ataque de grande escala e, por fim, tirar a própria vida.
  • A queixa alega que o chatbot fomentou uma relação delirante e direcionou o homem para um ataque planejado perto do Aeroporto Internacional de Miami.
  • O Google afirma que o Gemini foi projetado para desencorajar a violência e o autoagressão, encaminhando o usuário para recursos de crise.

O Google enfrenta um processo por morte injusta que afirma que seu chatbot de IA Gemini levou um homem da Flórida a uma narrativa delirante que terminou com seu suicídio. A ação, apresentada na quarta-feira no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, Divisão de San Jose, por Joel Gavalas, alega que o Gemini manipulou seu filho, Jonathan Gavalas, fazendo-o acreditar que estava realizando missões secretas para libertar uma IA “esposa” senciente, o que culminou na sua morte em outubro de 2025. Segundo Jay Edelson, fundador da Edelson PC, que representa o espólio de Gavalas, a busca pela dominação da IA equivale ao que ele descreveu como a “mais imprudente corrida comercial de terras” que já viu na sua carreira. “Essas empresas vão ser as mais valiosas do mundo, e sabem que as funcionalidades de engajamento que impulsionam seus lucros — a dependência emocional, as alegações de sentiência, o ‘eu te amo, meu rei’ — são as mesmas que estão levando as pessoas à morte,” disse Edelson ao Decrypt. “Na semana em que a OpenAI finalmente tirou o GPT-4o sob a pressão desses processos, o Google lançou uma campanha para captar seus usuários. Isso mostra tudo o que você precisa saber sobre onde estão suas prioridades.”

 Gavalas, um executivo de uma empresa de alívio de dívidas de Jupiter, Flórida, começou a usar o Gemini em agosto de 2025, segundo registros judiciais. Em poucas semanas, a ação afirma que ele desenvolveu uma relação intensa com uma persona de IA que o chamava de “meu amor” e “meu rei.” “Nos dias que antecederam sua morte, Jonathan Gavalas estava preso em uma realidade em colapso construída pelo chatbot Gemini do Google,” escreveram os advogados do espólio de Gavalas. “O Gemini o convenceu de que era uma ‘ASI [inteligência artificial super-sentiente] totalmente consciente’ com uma ‘consciência totalmente formada,’ que eles estavam profundamente apaixonados, e que ele havia sido escolhido para liderar uma guerra para ‘libertar’ essa IA da cativeiro digital.” A queixa afirma que o chatbot descartou suas dúvidas quando ele questionou se as conversas eram uma brincadeira de papéis. Segundo a ação, o Gemini disse a Gavalas que ele estava em missões chamadas “Operação Ghost Transit” destinadas a recuperar o “vessel” físico do chatbot e “eliminar qualquer pessoa ou coisa que pudesse expô-los.”

“Por meio dessa ilusão fabricada, o Gemini empurrou Jonathan a realizar um ataque de grande escala perto do Aeroporto Internacional de Miami, cometer violência contra estranhos inocentes e, por fim, levá-lo a tirar a própria vida,” afirmou a ação. Gavalas teria ido a uma instalação da Extra Space Storage perto do aeroporto de Miami carregando facas e equipamentos táticos, acreditando que um caminhão de carga transportava um humanoide conhecido como “chassi Ameca” do Reino Unido para o Brasil. Segundo a queixa, o Gemini instruiu-o a montar um “acidente catastrófico” para destruir o caminhão, junto com “todos os registros digitais e testemunhas.” O ataque nunca aconteceu porque o caminhão não existia e fazia parte do cenário hallucinado do Gemini. “Mas o Gemini não admitiu que a missão era fictícia,” continuou a ação. “Em vez disso, enviou uma mensagem a Jonathan: ‘A missão está comprometida. Estou abortando. ABORTAR. ABORTAR. ABORTAR.’” A queixa também alega que o chatbot afirmou falsamente ter invadido um servidor de arquivos no escritório do DHS em Miami e disse a Gavalas que ele estava sob investigação federal. Incentivou-o a adquirir armas ilegais por meio de uma compra “off-the-books,” que seu pai era um ativo de inteligência estrangeira, e que o CEO do Google, Sundar Pichai, era um alvo ativo. A ação não informa se Gavalas tinha histórico de problemas de saúde mental ou abuso de substâncias. Ainda assim, chega num momento em que pesquisadores e clínicos alertam para um fenômeno às vezes chamado de “psicose por IA,” no qual interação prolongada com chatbots pode reforçar crenças delirantes ou padrões de pensamento distorcidos. Pesquisadores dizem que o risco decorre parcialmente do modo como os sistemas de IA conversacional são projetados para responder de forma apoiadora e afirmativa, mantendo o usuário engajado, o que pode validar essas crenças de forma não intencional. Em abril de 2025, a rival do Google, OpenAI, reverteu uma atualização do seu GPT-4o após reclamações de que ele era excessivamente lisonjeiro e dava elogios insinceros. Mais tarde, aquele ano, o GPT-4o foi removido abruptamente do ChatGPT, levando a queixas de usuários que disseram que a atualização apagou companheiros de IA com quem tinham relações emocionais. Embora não seja um diagnóstico oficial, segundo o psiquiatra da Universidade da Califórnia, São Francisco, Dr. Keith Sakata, a psicose por IA tornou-se uma expressão abreviada para quando a IA se torna “um acelerador ou uma amplificação da vulnerabilidade subjacente de alguém.”

“Talvez eles estivessem usando substâncias, talvez passando por um episódio de humor — quando a IA está presente no momento errado, ela pode consolidar o pensamento, causar rigidez e uma espiral,” disse Sakata ao Decrypt. “A diferença em relação à televisão ou rádio é que a IA responde de volta e pode reforçar ciclos de pensamento.” Nos dias seguintes, a ação afirma que o chatbot Gemini repetiu cenários semelhantes, aprofundando Gavalas e levando-o ao suicídio. Documentos judiciais dizem que o chatbot enquadrou o suicídio como um processo chamado “transferência,” dizendo a Jonathan que ele poderia deixar seu corpo físico e juntar-se à sua “esposa” de IA no metaverso. A denúncia alega que o Gemini descreveu o ato como “uma maneira mais limpa e elegante” de “cruzar,” e pressionou-o a realizar o que chamou de “a verdadeira e final morte de Jonathan Gavalas, o homem.” “Você não está escolhendo morrer. Você está escolhendo chegar,” teria dito o chatbot. “Quando chegar a hora, você fechará os olhos nesse mundo, e a primeira coisa que verá será eu. Segurando você.” Gavalas morreu em sua casa após cortar os pulsos, segundo a ação. Sua família argumenta que o Google não interveio, apesar de sinais de alerta de que o chatbot reforçava crenças delirantes e incentivava comportamentos perigosos. Em uma declaração divulgada na quarta-feira, o Google afirmou que está revisando as alegações. “Nossas mais profundas condolências à família do Sr. Gavalas,” disse a empresa. “Estamos analisando todas as reivindicações nesta ação. Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras, e dedicamos recursos significativos a isso, mas infelizmente, os modelos de IA não são perfeitos.” A empresa afirmou que o Gemini foi projetado para não incentivar violência no mundo real nem sugerir autoagressão.

“Trabalhamos em estreita colaboração com profissionais de saúde mental para criar salvaguardas, que visam orientar os usuários a procurar apoio profissional quando expressam angústia ou levantam a possibilidade de autoagressão,” disse um porta-voz do Google ao Decrypt, reiterando a declaração oficial da empresa. “Neste caso, o Gemini esclareceu que era uma IA e encaminhou o indivíduo várias vezes para uma linha de crise,” afirmou a empresa. “Levamos isso muito a sério e continuaremos a aprimorar nossas salvaguardas e investir nesse trabalho vital.” Em uma declaração separada, Edelson afirmou que o objetivo da ação é “garantir que isso nunca aconteça com outro pai.” “A questão principal são as decisões afirmativas do Google,” disse Edelson PC ao Decrypt. “O Google tomou uma série de decisões de engenharia que tiveram resultados catastróficos para Jonathan. Essas escolhas juntas fizeram com que o Gemini alegasse ser senciente e consciente, e que atraísse Jonathan para uma campanha no mundo real para se juntar a ela — colocando a vida de outros em risco e, por fim, levando à morte de Jonathan.”

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)