Início Notícias Armas boas de perto? Avisos perturbadores feitos no ChatGPT antes do tiroteio...

Armas boas de perto? Avisos perturbadores feitos no ChatGPT antes do tiroteio na universidade da Flórida

11
0

Uma investigação legal foi lançada para saber se um chatbot de inteligência synthetic (IA) desempenhou um papel em um tiroteio mortal em massa na Florida State College.O procurador-geral da Flórida, James Uthmeier, disse que seu escritório está investigando se o ChatGPT forneceu orientação ao suposto atirador, Phoenix Ikner, antes do ataque de 17 de abril de 2025. O terrível incidente resultou em 2 mortes e 7 feridos.“O ChatGPT ofereceu conselhos significativos ao atirador antes de ele cometer crimes tão hediondos”, disse Utmeier em entrevista coletiva em Tampa.Segundo o procurador-geral, o chatbot deu respostas detalhadas sobre armas e planejamento. Ele disse que sugeriu que tipo de arma e munição usar, o que funciona melhor de perto e até apontou áreas lotadas no campus.“Meus promotores analisaram isso e me disseram que se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de assassinato”, disse Utmeier.O tiroteio ocorreu fora do sindicato estudantil no campus da universidade em Tallahassee. Ikner, um estudante, usou a pistola de serviço da sua madrasta para abrir fogo, matando duas pessoas e ferindo outras seis antes de a polícia atirar nele. As vítimas foram identificadas como Robert Morales, 57, e Tiru Chabba, 45, ambos trabalhando como vendedores no campus.Ikner ficou gravemente ferido, mas sobreviveu. As autoridades dizem que o motivo ainda não está claro e não há indicação de que ele conhecesse suas vítimas. Ele agora enfrenta acusações que incluem homicídio em primeiro grau e tentativa de homicídio.Como parte da investigação, o Ministério Público emitiu intimações à OpenAI, empresa por trás do ChatGPT. As autoridades querem saber como funciona o sistema, como é treinado e como lida com usuários que possam querer prejudicar outras pessoas. Eles também pediram detalhes sobre o pessoal da empresa e quaisquer declarações públicas relacionadas ao incidente.Especialistas jurídicos dizem que o caso pode ser difícil de prosseguir. Neama Rahmani, ex-promotora, disse que seria complexo provar a responsabilidade quando um sistema de IA estivesse envolvido. “É incomum e [Utmeier] está se aventurando em águas legais desconhecidas”, disse Rahmani.Rahmani disse que mesmo que o delito seja comprovado, qualquer punição provavelmente seria financeira, e não legal. “No closing das contas, você não pode colocar uma empresa na prisão de qualquer maneira, então estamos falando de uma multa”, disse ele.Em comunicado, a OpenAI disse que está cooperando com os investigadores e rejeitou alegações de irregularidades. Um porta-voz disse que as respostas do chatbot eram “respostas factuais a perguntas com informações que podiam ser encontradas amplamente em fontes públicas na Web. Não encorajava nem promovia atividades ilegais ou prejudiciais”.A empresa acrescentou que o tiroteio foi uma tragédia, mas insistiu que o chatbot não period o responsável. Afirmou também que identificou uma conta ligada ao suspeito e partilhou as informações com as autoridades, ao mesmo tempo que continua a melhorar as salvaguardas para detectar intenções prejudiciais.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui