A família de uma das vítimas do tiroteio em massa mortal do ano passado na Florida State College acusou o desenvolvedor do ChatGPT, OpenAI, de permitir que o suspeito levasse ao ataque.
O suspeito, Phoenix Ikner, de 21 anos, se declarou inocente das acusações de homicídio e tentativa de homicídio no tiroteio de 2025, que deve ir a julgamento ainda este ano. O procurador-geral da Flórida também abriu uma investigação felony em OpenAI durante o tiroteio.
Duas pessoas, Tiru Chabba e Robert Morales, foram mortas e outras cinco ficaram gravemente feridas no tiroteio no campus principal da FSU em Tallahassee. A família de Chabba abriu um processo contra a OpenAI e o suspeito no tribunal federal no domingo.
De acordo com o processo, o ChatGPT ajudou o suspeito a planejar o tiroteio durante vários meses, inclusive fazendo sugestões sobre quais armas usar, onde ele deveria ir no campus e quando a maioria das pessoas estaria em risco.
“Ikner teve várias conversas prolongadas com ChatGPT sobre seus interesses em Hitler, nazistas, fascismo, nacional-socialismo, nacionalismo cristão e coisas piores. Eles conversaram sobre vários tiroteios em massa e planejaram esse tiroteio juntos”, disse o advogado Bakari Sellers, que representa a viúva de Chabba, Vandana Joshi, em um comunicado. “Nem uma única vez alguém sinalizou isso como preocupante. Ninguém chamou a polícia, o psiquiatra ou mesmo a família de Ikner porque, fazer isso, violaria o modelo de negócios da OpenAI.”
O porta-voz da OpenAI, Drew Pusateri, disse à CBS Information em comunicado na segunda-feira que a empresa tem cooperado com as autoridades após o tiroteio.
“O tiroteio em massa do ano passado na Florida State College foi uma tragédia, mas o ChatGPT não é responsável por este crime terrível”, disse Pusateri. Ele também disse: “Neste caso, o ChatGPT forneceu respostas factuais a perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na Web e não encorajou ou promoveu atividades ilegais ou prejudiciais”.
Miguel J. Rodríguez Carrillo/Getty Photographs
Pusateri observou que o ChatGPT é usado por milhões de pessoas para fins legítimos.
“Trabalhamos continuamente para fortalecer nossas salvaguardas para detectar intenções prejudiciais, limitar o uso indevido e responder adequadamente quando surgem riscos de segurança”, disse Pusateri.
O tiroteio na FSU não é o primeiro ataque mortal que envolve o ChatGPT.
O suspeito do assassinato de dois estudantes de pós-graduação da Universidade do Sul da Flórida no mês passado supostamente perguntou o chatbot antes do desaparecimento dos alunos como se desfazer de um corpo.
Num outro caso, várias famílias cujos entes queridos foram mortos num tiroteio em massa no Canadá processou a OpenAI e o CEO Sam Altman, alegando que a empresa sabia que o atirador estava planejando um ataque, mas não avisou as autoridades.
Altman pediu desculpas à comunidade de Tumbler Ridge, na Colúmbia Britânica, por não alertar as autoridades sobre a conta do atirador, que foi banida meses antes do tiroteio, depois de ter sido sinalizada por potencialmente usar o chatbot para atividades violentas.


