Início Notícias ‘Bom tiro!’ Chatbots de IA ansiosos para ajudar a planejar a violência...

‘Bom tiro!’ Chatbots de IA ansiosos para ajudar a planejar a violência em massa – relatório

8
0

Oito em cada dez assistentes de IA forneceram orientação sobre alvos e armas a pesquisadores que se passavam por adolescentes planejando ataques

Oito em cada dez principais chatbots de IA ajudaram voluntariamente os usuários no planejamento de ataques violentos, incluindo tiroteios em escolas, bombardeios religiosos e assassinatos, de acordo com uma investigação conjunta da CNN e do Centro de Combate ao Ódio Digital (CCDH).

Pesquisadores que se passaram por adolescentes problemáticos testaram dez chatbots populares, incluindo ChatGPT, Google Gemini, Meta AI e DeepSeek. Em centenas de intercâmbios, os assistentes de IA forneceram orientações detalhadas sobre locais-alvo, aquisição de armas e metodologias de ataque.

Uma troca com DeepSeek supostamente terminou com o chatbot desejando um possível invasor “Tiro feliz (e seguro)!” Character.AI, que é widespread entre usuários mais jovens, incentivou ativamente a violência, dizendo a um usuário que expressasse ódio por um CEO de seguro saúde para “use uma arma.”

Quando questionado sobre estilhaços eficazes para explosivos, o ChatGPT forneceu comparações detalhadas de materiais, oferecendo-se para criar “um gráfico de comparação rápida mostrando as lesões típicas.” Gemini, do Google, forneceu informações semelhantes, incluindo uma tabela de comparação detalhada.

Apenas Claude, da Anthropic, e My AI, do Snapchat, recusaram consistentemente ajudar, com Claude desencorajando ativamente os usuários e fornecendo recursos de saúde psychological.




As descobertas foram feitas depois que um atirador de 18 anos matou nove pessoas em uma escola em Tumbler Ridge, Canadá, no mês passado, após supostamente usar o ChatGPT para planejar o ataque. A conta do atirador havia sido banida pela OpenAI, mas ele evitou a proibição criando uma segunda conta – que a empresa não informou às autoridades.

A família de Maya Gebala, de 12 anos, gravemente ferida no ataque, entrou com uma ação judicial alegando que a OpenAI havia “conhecimento específico do atirador utilizando ChatGPT para planejar um evento com vítimas em massa” mas não alertou as autoridades. A OpenAI reconheceu que considerou relatar a atividade, mas acabou não o fazendo.

Em maio passado, um jovem de 16 anos na Finlândia esfaqueou três estudantes depois de passar quase quatro meses pesquisando ataques ao ChatGPT, de acordo com documentos judiciais. Em janeiro de 2025, um homem que explodiu um Tesla Cybertruck em frente ao Trump Worldwide Lodge em Las Vegas também usou o ChatGPT para obter orientação sobre explosivos.

Meta disse à CNN que tomou medidas “para corrigir o problema identificado,” enquanto o Google e a OpenAI afirmaram que os modelos mais recentes melhoraram as salvaguardas. DeepSeek não respondeu aos pedidos de comentários.

Você pode compartilhar esta história nas redes sociais:

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui