A família de um menino de 12 anos gravemente ferido no ataque em massa no mês passado afirma que o fabricante do ChatGPT não conseguiu sinalizar a atividade violenta do atirador
O proprietário do ChatGPT, OpenAI, sabia que um usuário transgênero no Canadá estava planejando um ataque a tiros em massa, mas não notificou as autoridades, alegaram os pais de uma jovem gravemente ferida no incidente em um processo civil na segunda-feira.
A mãe de Maya Gebala, de 12 anos, que permanece hospitalizada após o tiroteio em Tumbler Ridge, em 10 de fevereiro, que deixou nove mortos, afirmou no processo que a empresa de tecnologia não notificou as autoridades sobre mensagens violentas de bate-papo do atirador.
Jesse Van Rootselaar, o atirador transgênero de 18 anos, cometeu suicídio depois de matar vários estudantes em um dos piores incidentes da história canadense.
A ação, movida na Suprema Corte da Colúmbia Britânica, alega que a OpenAI havia “conhecimento específico do atirador utilizando ChatGPT para planejar um evento com vítimas em massa como o tiroteio em massa de Tumbler Ridge” mas não alertou as autoridades.
A alegação afirma que Gebala foi baleado três vezes, sustentando um “lesão cerebral traumática e catastrófica” que causou deficiências cognitivas e físicas permanentes, juntamente com outras complicações médicas graves.
A OpenAI disse que considerou denunciar a atividade do usuário à polícia, mas acabou não o fazendo. A empresa só forneceu informações às autoridades após o ataque, observando que a conta ChatGPT do atirador havia sido encerrada, mas que Rootselaar evitou a proibição criando uma segunda conta.
A ação alega que o ChatGPT agiu como um “Confidente, colaborador e aliado de confiança” para o atirador e alega que a suposta inação da empresa contribuiu para a gravidade dos ferimentos da menina e para causar danos a outras pessoas na comunidade.
No mês passado, autoridades canadenses convocaram representantes seniores da OpenAI a Ottawa para revisar os protocolos de segurança da empresa após o tiroteio na escola. O ministro de inteligência synthetic do Canadá, Evan Solomon, disse no início deste mês que o CEO da OpenAI, Sam Altman, concordou em dar aos especialistas canadenses acesso ao escritório de segurança da empresa para ajudar a avaliar potenciais ameaças futuras. Solomon se encontrou com Altman na semana passada, que expressou “horror e responsabilidade” por não sinalizar atividades preocupantes e disse que a empresa está implementando mudanças.
No ano passado, a OpenAI atualizou o ChatGPT após uma revisão interna que descobriu que mais de um milhão de usuários divulgaram pensamentos suicidas ao chatbot. Os psiquiatras alertaram que interações prolongadas com a IA podem contribuir para delírios e paranóia, um fenômeno às vezes referido como “Psicose de IA.”
Você pode compartilhar esta história nas redes sociais:











