Uma investigação legal foi lançada para saber se um chatbot de inteligência synthetic (IA) desempenhou um papel em um tiroteio mortal em massa na Florida State College.O procurador-geral da Flórida, James Uthmeier, disse que seu escritório está investigando se o ChatGPT forneceu orientação ao suposto atirador, Phoenix Ikner, antes do ataque de 17 de abril de 2025. O terrível incidente resultou em 2 mortes e 7 feridos.“O ChatGPT ofereceu conselhos significativos ao atirador antes de ele cometer crimes tão hediondos”, disse Utmeier em entrevista coletiva em Tampa.Segundo o procurador-geral, o chatbot deu respostas detalhadas sobre armas e planejamento. Ele disse que sugeriu que tipo de arma e munição usar, o que funciona melhor de perto e até apontou áreas lotadas no campus.“Meus promotores analisaram isso e me disseram que se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de assassinato”, disse Utmeier.O tiroteio ocorreu fora do sindicato estudantil no campus da universidade em Tallahassee. Ikner, um estudante, usou a pistola de serviço da sua madrasta para abrir fogo, matando duas pessoas e ferindo outras seis antes de a polícia atirar nele. As vítimas foram identificadas como Robert Morales, 57, e Tiru Chabba, 45, ambos trabalhando como vendedores no campus.Ikner ficou gravemente ferido, mas sobreviveu. As autoridades dizem que o motivo ainda não está claro e não há indicação de que ele conhecesse suas vítimas. Ele agora enfrenta acusações que incluem homicídio em primeiro grau e tentativa de homicídio.Como parte da investigação, o Ministério Público emitiu intimações à OpenAI, empresa por trás do ChatGPT. As autoridades querem saber como funciona o sistema, como é treinado e como lida com usuários que possam querer prejudicar outras pessoas. Eles também pediram detalhes sobre o pessoal da empresa e quaisquer declarações públicas relacionadas ao incidente.Especialistas jurídicos dizem que o caso pode ser difícil de prosseguir. Neama Rahmani, ex-promotora, disse que seria complexo provar a responsabilidade quando um sistema de IA estivesse envolvido. “É incomum e [Utmeier] está se aventurando em águas legais desconhecidas”, disse Rahmani.Rahmani disse que mesmo que o delito seja comprovado, qualquer punição provavelmente seria financeira, e não legal. “No closing das contas, você não pode colocar uma empresa na prisão de qualquer maneira, então estamos falando de uma multa”, disse ele.Em comunicado, a OpenAI disse que está cooperando com os investigadores e rejeitou alegações de irregularidades. Um porta-voz disse que as respostas do chatbot eram “respostas factuais a perguntas com informações que podiam ser encontradas amplamente em fontes públicas na Web. Não encorajava nem promovia atividades ilegais ou prejudiciais”.A empresa acrescentou que o tiroteio foi uma tragédia, mas insistiu que o chatbot não period o responsável. Afirmou também que identificou uma conta ligada ao suspeito e partilhou as informações com as autoridades, ao mesmo tempo que continua a melhorar as salvaguardas para detectar intenções prejudiciais.








