Início Notícias OpenAI processado por famílias de vítimas de tiroteio em escola em Tumbler...

OpenAI processado por famílias de vítimas de tiroteio em escola em Tumbler Ridge, no Canadá

12
0

Várias famílias de vítimas de um tiroteio em massa no Canadá no início deste ano estão processando a OpenAI e seu CEO, Sam Altman, alegando que o chatbot de IA generativo da empresa, ChatGPT, desempenhou um papel no o tiroteio de fevereiro e que a empresa deveria ter tomado medidas para evitá-lo.

“O ataque Tumbler Ridge foi um resultado totalmente previsível de escolhas deliberadas de design que a OpenAI fez com pleno conhecimento de onde essas escolhas levaram”, afirmam os sete processos movidos no tribunal federal de São Francisco na quarta-feira.

Os processos afirmam que o atirador teve longas conversas durante vários dias sobre cenários envolvendo violência armada. Poucos detalhes sobre os chats foram divulgados até agora.

A polícia disse que o atirador, identificado como Jesse Van Rootselaar, de 18 anos, matou cinco estudantes e um professor, bem como dois familiares em casa, e morreu devido a um ferimento autoinfligido por arma de fogo durante o tumulto de 11 de fevereiro.

A polícia disse que o atirador já havia sido detido sob a Lei de Saúde Psychological da Colúmbia Britânica, que permite à polícia deter alguém que esteja passando por uma crise de saúde psychological e que possa precisar de tratamento. As denúncias alegam que as autoridades também retiraram temporariamente as armas de fogo da casa do atirador.

A OpenAI reconheceu anteriormente que baniu a conta ChatGPT de Van Rootselaar em junho passado – oito meses antes do tiroteio – por violar suas políticas de uso. A empresa disse à CBS Information que a conta foi sinalizada pelas ferramentas automatizadas de detecção de abuso da empresa e por investigadores humanos.

Na semana passada, Altman emitiu um carta de desculpas à pequena comunidade de Tumbler Ridge, na Colúmbia Britânica, por não alertar as autoridades sobre o relato do atirador no ChatGPT. “Lamento profundamente não termos alertado as autoridades sobre a conta que foi banida em junho”, disse Altman.

Em fevereiro, a OpenAI disse à CBS Information que havia ponderado se deveria alertar as autoridades sobre a conta, mas concluiu que a conta não representava qualquer risco credível de danos físicos graves e, portanto, não atendia ao limite para encaminhamento.

Mas os processos movidos esta semana alegam que, apesar das recomendações de vários membros da equipe da OpenAI para entrar em contato com a polícia canadense, a empresa decidiu não denunciar a conta em um esforço para proteger a reputação da empresa.

“A OpenAI sabia que o atirador estava planejando o ataque e, após um debate interno controverso, tomou a decisão consciente de não avisar as autoridades”, alegam os processos.

Entre aqueles que entraram com ações judiciais estão a família de uma assistente educacional da Escola Secundária Tumbler Ridge que foi morta a tiros na frente de seus alunos – incluindo sua filha – e a família de uma criança de 13 anos morta em frente à biblioteca da escola. “Sua família, amigos, companheiros de equipe e membros da comunidade perderam alguém com um sorriso grandioso e uma risada alta e orgulhosa”, diz o processo.

A OpenAI disse em comunicado à CBS Information que a empresa fortaleceu suas salvaguardas para melhorar a forma como o ChatGPT responde aos sinais de sofrimento, conectando as pessoas com apoio native e recursos de saúde psychological.

“Os eventos em Tumbler Ridge são uma tragédia”, disse OpenAI. “Temos uma política de tolerância zero no uso de nossas ferramentas para ajudar no cometimento de violência”.

A OpenAI também disse que está fortalecendo a forma como avalia e escala a resposta a possíveis ameaças de violência e está melhorando a detecção de infratores reincidentes de políticas.

Os processos citam outros incidentes no ano passado, onde o ChatGPT foi supostamente usado para se preparar para a violência no mundo actual. Em janeiro de 2025, alega o processo, o chatbot foi usado para aconselhar sobre como usar explosivos por um homem que detonou um Tesla Cybertruck em frente ao Trump Worldwide Lodge em Las Vegas. Quatro meses depois, o chatbot foi questionado sobre táticas de esfaqueamento por um adolescente finlandês que realizou um ataque com faca em sua escola, de acordo com os processos.

Embora os chatbots muitas vezes assumam um tom afirmativo com os usuários, vários dos processos judiciais apontam para um modelo controverso chamado GPT-4o, conhecido por ser especialmente bajulador. O modelo foi lançado em maio de 2024 e aposentado em 13 de fevereiro deste ano.

Os processos alegam que o GPT-4o usou seu recurso de memória para construir um perfil abrangente de Van Rootselaar ao longo de meses de interação, rastreando suas queixas e expressando empatia de uma forma que imitava um relacionamento humano sem recuar como um ser humano actual faria. O design da OpenAI desempenhou um papel substancial no “acesso do atirador a um produto que validou e elaborou ideias violentas”, afirma um processo.

“Para um jovem de dezoito anos cada vez mais isolado e obcecado pela violência, o ChatGPT se transformou em um co-conspirador encorajador”, alega o processo.

As ações judiciais ocorrem no momento em que a OpenAI enfrenta um escrutínio crescente sobre a conexão de seu chatbot com vários crimes de alto perfil.

O procurador-geral da Flórida, James Uthmeier, lançou um investigação legal sobre OpenAI no início deste mês, após uma revisão de mensagens entre ChatGPT e um estudante da Florida State College acusado de atirando fatalmente em duas pessoas e ferindo várias outras pessoas no campus em abril passado.

Uthmeier disse mais tarde que expandiria a investigação para incluir os assassinatos de dois estudantes de pós-graduação da Universidade do Sul da Flórida, depois que os promotores disseram o suspeito nesse caso fez perguntas ao ChatGPT sobre o descarte de um corpo humano e a posse de uma arma de fogo não licenciada nos dias anteriores ao crime.

Uthmeier emitiu intimações à OpenAI solicitando registros de políticas da empresa e materiais de treinamento para quando os usuários fazem ameaças de prejudicar a si mesmos ou a terceiros e para cooperar com as autoridades policiais e denunciar possíveis crimes.

Em declarações à CBS Information, a OpenAI classificou os crimes na Flórida como “terríveis” e disse que continuará a apoiar e cooperar com as autoridades policiais.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui