A história até agora: A esposa de um empresário que foi morto em um tiroteio na Flórida no ano passado processou a OpenAI em nome da família enlutada, alegando que o atirador acusado usou o ChatGPT para explorar ideologias de extrema direita, preparar suas armas, planejar o ataque e pesquisar maneiras de maximizar os danos. Dois tiroteios em massa – um nos EUA em 2025 e outro no Canadá em 2026 – trouxeram à luz o uso da tecnologia da OpenAI em execuções públicas.
A OpenAI é acusada de não informar a polícia sobre o uso do ChatGPT por potenciais atiradores em massa, com a empresa de IA enfrentando uma investigação legal nos EUA como resultado do tiroteio na universidade da Flórida. Agora, mais reguladores, defensores da segurança digital e membros da comunidade afectados em ambos os países estão a sinalizar os riscos de assassinatos públicos possibilitados pela IA.
Como o ChatGPT foi usado no tiroteio na Florida State College?
Tiru Chabba, 45 anos, pai de dois filhos e profissional de negócios do setor de serviços de alimentação, foi uma das duas pessoas que a polícia disse que o atirador acusado Phoenix Ikner, então com 20 anos, matou em 17 de abril durante um tiroteio na Florida State College no ano passado. Ikner period estudante na FSU e seu julgamento ocorrerá no last de 2026.
A família de Chabba entrou com uma ação judicial contra a OpenAI, datada de 10 de maio de 2026. Vandana Joshi, descrita como autora e esposa sobrevivente, disse na ação que “a conduta da OpenAI foi intencional, desenfreada e realizada com desrespeito consciente pela segurança de outras pessoas”.
O processo alegou que, com base nas interações “longas” do suposto atirador com o ChatGPT ao longo de vários meses, a OpenAI deveria ter percebido que ele corria o risco de causar sérios danos ao público e ferir pessoas em geral.
No processo, a família de Chabba alegou que ChatGPT encorajou os delírios do atirador acusado, ajudou-o com a logística do ataque, prestou assistência na preparação das suas armas, discutiu as taxas de mortalidade para diferentes ferimentos à bala, falou sobre o número de mortes necessárias para chamar a atenção da mídia nacional e não interveio adequadamente quando o estudante acusado explorou pontos de vista extremistas e expressou sentimentos suicidas.
Quando o suposto atirador perguntou, o ChatGPT também compartilhou os horários de maior movimento no sindicato estudantil da Florida State College, de acordo com o processo. Além disso, o ChatGPT supostamente revisou fotos das armas do atirador acusado e deu conselhos sobre técnicas de disparo e carregamento.
A ação afirmava que o filho e a filha menores de Chabba estavam sofrendo a perda do “apoio e serviços, companheirismo parental, instrução e orientação” de seu pai.
O processo da família não é o único desafio authorized relacionado ao tiroteio na FSU. Em 21 de abril deste ano, o procurador-geral James Uthmeier anunciou que o Ministério Público Estadual havia lançado uma investigação legal sobre OpenAI e ChatGPT. O anúncio veio depois que os promotores analisaram os registros de bate-papo do ChatGPT do suposto atirador da FSU em 2025.
“Esta investigação legal determinará se a OpenAI tem responsabilidade legal pelas ações do ChatGPT no tiroteio na Florida State College no ano passado”, afirmou Uthmeier, acrescentando que se o ChatGPT fosse uma pessoa, enfrentaria acusações de homicídio.
Qual foi a resposta da OpenAI?
O criador do ChatGPT mantém uma postura defensiva neste caso. O porta-voz da OpenAI, Drew Pusateri, disse ao CNN meio de comunicação que o ChatGPT deu “respostas factuais às perguntas” e forneceu informações que já estavam publicamente disponíveis on-line, sem promover atividades ilegais.
No entanto, isso difere totalmente da postura que a OpenAI assumiu após o tiroteio na escola de 2026 em Tumbler Ridge, no Canadá. Em 10 de fevereiro, Jesse Van Rootselaar, 18 anos, matou a tiros sua mãe, seu meio-irmão, cinco filhos de uma escola native e um professor, além de causar ferimentos a outras pessoas, antes de morrer por suicídio, segundo o hemograma completo meio de comunicação.
Quando foi relatado que o atirador não apenas acessou o ChatGPT, mas teve sua conta banida no passado e criou uma segunda conta, a comunidade e os reguladores canadenses questionaram com raiva por que a OpenAI não alertou a polícia.
O CEO Sam Altman enviou uma carta de desculpas à comunidade de Tumbler Ridge datada de 26 de abril e se comprometeu a trabalhar com o governo para evitar que tais incidentes acontecessem novamente.
“Lamento profundamente não termos alertado as autoridades sobre a conta que foi banida em junho. Embora eu saiba que as palavras nunca serão suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu”, afirmou sua carta, publicada pelo Tumbler RidgeLines tomada.
Nos EUA, Edelson PC – o escritório de advocacia que trabalha com a família de um sobrevivente de Tumbler Ridge em uma ação judicial contra a OpenAI – alegou em um submit X que 12 membros da equipe de segurança da OpenAI instaram a empresa a alertar as autoridades sobre os riscos de violência armada do usuário ChatGPT, mas a liderança da OpenAI disse-lhes para se retirarem.
Cia Edmonds, mãe de um sobrevivente de 12 anos gravemente ferido, chamou o pedido de desculpas de Altman de “vazio” e “sem alma” em uma declaração compartilhada por Edelson, e perguntou se o CEO da OpenAI havia usado o ChatGPT para redigi-lo.
“E pensar que um simples telefonema poderia ter evitado isso”, observou ela.
As famílias de outras vítimas também apresentaram ações judiciais contra a OpenAI na Califórnia.
(Aqueles em perigo ou com pensamentos suicidas são incentivados a procurar ajuda e aconselhamento ligando para os números da linha de apoio aqui)
Publicado – 14 de maio de 2026, 11h IST