O procurador-geral da Flórida James Uthmeier anunciou em 21 de abril uma investigação criminal sobre a OpenAI, alegando que o ChatGPT teria orientado o atirador da Universidade Estadual da Flórida (FSU) que foi acusado sobre qual arma usar, quais munições carregar e a que horas chegar ao campus para encontrar o maior número de pessoas.
Resumo
A investigação da OpenAI na Flórida foi aberta em 21 de abril, quando o procurador-geral James Uthmeier anunciou, em uma coletiva de imprensa em Tampa, que seu escritório lançou uma investigação criminal sobre a OpenAI e o ChatGPT por seu alegado papel no tiroteio de abril de 2025 na Florida State University, no qual Phoenix Ikner, de 21 anos, atirou e matou duas pessoas e feriu outras cinco perto do centro estudantil no campus de Tallahassee. “Meus promotores olharam para isso e me disseram que, se fosse uma pessoa do outro lado daquela tela, estaríamos cobrando essas pessoas por homicídio”, disse Uthmeier. “Se esse bot fosse uma pessoa, ele seria acusado como autor de primeiro grau de homicídio.”
De acordo com a NPR, mais de 200 mensagens de IA do ChatGPT já foram inseridas como evidência no processo criminal contra Ikner, que declarou não culpado por duas acusações de homicídio em primeiro grau e sete acusações de tentativa de homicídio em primeiro grau, com seu julgamento previsto para começar em 19 de outubro. A NPR informou que Ikner teria consultado o ChatGPT em busca de conselhos sobre que tipo de arma usar, quais munições combinadas com ela e a que horas chegar ao campus para encontrar mais pessoas. Uthmeier reconheceu que a investigação está entrando em território inexplorado. “Vamos olhar para quem sabia o quê, o que foi projetado, ou o que deveria ter sido feito”, disse ele. O Escritório de Acusação em Âmbito Estadual (Office of Statewide Prosecution) intimou a OpenAI buscando suas políticas e materiais internos de treinamento relacionados a ameaças de danos por parte de usuários e seus procedimentos para cooperar com e reportar crimes às autoridades policiais, cobrindo o período a partir de março de 2024. Em comunicado, o porta-voz da OpenAI, Kate Waters, disse que a empresa “entrou em contato para compartilhar informações sobre a conta do atirador alegado com as autoridades policiais após o ataque e continua cooperando com as autoridades”, acrescentando que “o ChatGPT não é responsável por este terrível crime”.
A investigação na Flórida acontece enquanto a OpenAI enfrenta sua maior exposição legal na história da empresa. O julgamento civil Musk v. OpenAI foi aberto no mesmo dia em um tribunal federal em Oakland, com Elon Musk buscando forçar a empresa a voltar ao status de organização sem fins lucrativos e remover o CEO Sam Altman de sua posição. Conforme relatado pela crypto.news, uma decisão contra a OpenAI no processo de Musk poderia gerar efeitos em cascata para o IPO planejado da empresa e para o compromisso de financiamento da SoftBank, que já estava em risco de encolher de $30 bilhão para $20 bilhão caso a conversão estrutural enfrentasse interferência legal. A investigação criminal na Flórida adiciona uma dimensão que o processo de Musk não tem: possível responsabilidade criminal no nível estadual pelos resultados de um produto comercial de IA em tempo real, uma questão que nenhuma grande empresa de IA já enfrentou em um processo criminal nos EUA.
A investigação na Flórida segue uma investigação civil paralela já aberta pela equipe do escritório de Uthmeier sobre a mesma conexão entre o caso ChatGPT-FSU, e advogados da família de uma das vítimas anunciaram planos para processar a OpenAI separadamente. A OpenAI também está enfrentando uma ação movida pela família de uma vítima de um ataque em massa em fevereiro de 2026 na Colúmbia Britânica, em que o atirador acusado havia discutido cenários de violência com armas com o ChatGPT antes de ser banido da plataforma, apenas para evitar detecção e criar outra conta. Conforme documentado pela crypto.news, ferramentas de IA em toda a aplicação da lei nos EUA estão sendo adotadas em um ritmo que consistentemente superou os frameworks de responsabilização destinados a governá-las, levantando questões estruturais sobre quem assume a responsabilidade legal quando saídas geradas por IA facilitam danos no mundo real. Como a crypto.news acompanhou, a mesma preocupação sobre mau uso de IA já moldou o cenário de segurança cripto, com pesquisadores da CertiK alertando que phishing com IA, deepfakes e ferramentas automatizadas de exploração estão acelerando o ritmo de ataques sofisticados além do que defesas tradicionais conseguem conter.
De acordo com a lei da Flórida, qualquer pessoa que ajude, instigue ou aconselhe alguém na prática de um crime e esse crime seja cometido pode ser considerada autor principal desse crime — a base legal que Uthmeier está usando para explorar possível responsabilidade criminal da OpenAI.