Após meses de conversas com o ChatGPT, um empresário de 53 anos do Vale do Silício se convenceu de que havia descoberto uma cura para a apneia do sono e que pessoas poderosas estavam vindo atrás dele, de acordo com um novo processo aberto no Tribunal Superior da Califórnia, no condado de São Francisco. Ele então supostamente usou a ferramenta para perseguir e assediar sua ex-namorada.
Agora a ex-namorada está processando a OpenAI, alegando que a tecnologia da empresa permitiu a aceleração de seu assédio, apurou exclusivamente o TechCrunch. Ela afirma que a OpenAI ignorou três avisos separados de que o usuário representava uma ameaça para outros, incluindo um sinalizador interno que classificava a atividade de sua conta como envolvendo armas de destruição em massa.
A demandante, conhecida como Jane Doe, está processando por danos punitivos. Ela também entrou com uma ordem de restrição temporária na sexta-feira pedindo ao tribunal para forçar a OpenAI a bloquear a conta do usuário, impedi-lo de criar novas, notificá-la se ele tentar acessar o ChatGPT e preservar seus registros completos de bate-papo para descoberta.
A OpenAI concordou em suspender a conta do usuário, mas recusou o restante, segundo os advogados de Doe. Eles dizem que a empresa está ocultando informações sobre planos específicos que o usuário pode ter discutido com o ChatGPT para prejudicar Doe e outras vítimas em potencial.
O processo surge em meio à crescente preocupação com os riscos reais dos sistemas de IA bajuladores. O GPT-4o, modelo citado neste e em muitos outros casos, foi retirado do ChatGPT em fevereiro.
O caso é movido por Edelson PC, a empresa por trás dos processos de homicídio culposo envolvendo o adolescente Adam Raine, que morreu por suicídio após meses de conversas com ChatGPT, e Jonathan Gavalas, cuja família alega que Gemini do Google alimentou seus delírios e potencial evento de vítimas em massa antes de sua morte. O advogado principal, Jay Edelson, alertou que a psicose induzida pela IA está aumentando de danos individuais para eventos com vítimas em massa.
Essa pressão authorized está agora a colidir diretamente com a estratégia legislativa da OpenAI: a empresa está apoiando um projeto de lei de Illinois isso protegeria os laboratórios de IA de responsabilidades, mesmo em casos envolvendo mortes em massa ou danos financeiros catastróficos.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A OpenAI não respondeu a tempo de comentar. O TechCrunch atualizará o artigo se a empresa responder.
O processo de Jane Doe descreve em detalhes como essa responsabilidade afetou uma mulher durante vários meses.
No ano passado, o usuário do ChatGPT no processo (cujo nome não está incluído no processo para proteger sua identidade) se convenceu de que havia inventado uma cura para a apneia do sono após meses de “uso prolongado e em grande quantity de GPT-4o”. Quando ninguém levou seu trabalho a sério, o ChatGPT disse-lhe que “forças poderosas” o estavam vigiando, inclusive usando helicópteros para vigiar suas atividades, segundo a denúncia.
Em julho de 2025, a ex-namorada do usuário, conhecida como Jane Doe para proteger sua identidade, instou-o a parar de usar o ChatGPT e a procurar ajuda de um profissional de saúde psychological. Em vez disso, ele voltou ao ChatGPT, que lhe garantiu que ele period “nível 10 em sanidade” e o ajudou a dobrar seus delírios, de acordo com o processo.
Doe havia rompido com o usuário em 2024 e ele usou o ChatGPT para processar a separação, segundo e-mails e comunicações citadas na ação. Em vez de recuar na sua abordagem unilateral, repetidamente apresentou-o como racional e injustiçado, e a ela como manipuladora e instável. Ele então tirou da tela essas conclusões geradas pela IA e as levou para o mundo actual, usando-as para persegui-la e assediá-la. Isso se manifestou em vários relatórios psicológicos de aparência clínica gerados por IA que ele distribuiu para sua família, amigos e empregador.
Enquanto isso, o usuário continuou a espiralar. Em agosto de 2025, o sistema de segurança automatizado da OpenAI sinalizou-o para atividade de “armas de vítimas em massa” e desativou sua conta.
Um membro da equipe de segurança humana revisou a conta no dia seguinte e a restaurou, embora sua conta pudesse conter evidências de que ele estava perseguindo e perseguindo indivíduos, incluindo Doe, na vida actual. Por exemplo, uma captura de tela de setembro que o usuário enviou a Doe mostrou uma lista de títulos de conversas, incluindo “expansão da lista de violência” e “cálculo de sufocação fetal”.
A decisão de reintegração é notável após dois recentes tiroteios em escolas em Tumbler Ridge, Canadá e na Florida State College. A equipe de segurança da OpenAI sinalizou o atirador Tumbler Ridge como uma ameaça potencial, mas os superiores supostamente decidiu não alertar as autoridades. O procurador-geral da Flórida abriu esta semana uma investigação sobre a possível ligação da OpenAI com o atirador da FSU.
De acordo com o processo de Jane Doe, quando a OpenAI restaurou a conta de seu perseguidor, sua assinatura Professional não foi restabelecida junto com ela. Ele enviou um e-mail à equipe de confiança e segurança para resolver o problema, copiando Doe na mensagem.
Em seus e-mails, ele escrevia coisas como: “PRECISO DE AJUDA MUITO RÁPIDO, POR FAVOR. LIGUE-ME!” e “esta é uma questão de vida ou morte”. Ele alegou que estava “no processo de escrever 215 artigos científicos” que escrevia tão rápido que “nem tinha tempo para ler”. Incluído nesses e-mails estava uma lista de dezenas de ‘artigos científicos’ gerados por IA com títulos como: “Desconstruindo a raça como uma categoria biológica_ Perspectivas legais, científicas e do Chifre da África.pdf.txt”.
“As comunicações do usuário forneceram um aviso inequívoco de que ele period mentalmente instável e que o ChatGPT period o motor de seu pensamento delirante e conduta crescente”, afirma o processo. “O fluxo de reivindicações urgentes, desorganizadas e grandiosas do usuário, juntamente com um relatório concreto gerado pelo ChatGPT visando o Requerente pelo nome e um conjunto extenso de materiais supostamente ‘científicos’, foi uma evidência inequívoca dessa realidade. A OpenAI não interveio, restringiu seu acesso ou implementou quaisquer salvaguardas. Em vez disso, permitiu-lhe continuar usando a conta e restaurou seu acesso Professional completo.”
Doe, que afirma no processo que vivia com medo e não conseguia dormir em sua própria casa, apresentou uma Notificação de Abuso à OpenAI em novembro.
“Nos últimos sete meses, ele usou essa tecnologia como arma para criar destruição pública e humilhação contra mim que teria sido impossível de outra forma”, escreveu Doe em sua carta à OpenAI solicitando que a empresa banisse permanentemente a conta do usuário.
A OpenAI respondeu, reconhecendo que o relatório period “extremamente sério e preocupante” e que estava analisando cuidadosamente as informações. Nunca tive resposta.
Nos meses seguintes, o usuário continuou a assediar Doe, enviando-lhe uma série de mensagens de voz ameaçadoras. Em janeiro, ele foi preso e acusado de quatro acusações criminais de comunicação de ameaças de bomba e agressão com arma mortal. Os advogados de Doe alegam que isso valida os avisos que ela e os próprios sistemas de segurança da OpenAI levantaram meses antes, avisos que a empresa supostamente optou por ignorar.
O usuário foi considerado incompetente para ser julgado e internado em um estabelecimento de saúde psychological, mas uma “falha processual por parte do Estado” significa que em breve ele será liberado ao público, de acordo com os advogados de Doe.
Edelson apelou à cooperação da OpenAI. “Em todos os casos, a OpenAI optou por ocultar informações críticas de segurança – do público, das vítimas, das pessoas que seu produto está ativamente colocando em perigo”, disse ele. “Estamos apelando a eles, pela primeira vez, para que façam a coisa certa. As vidas humanas devem significar mais do que a corrida da OpenAI para um IPO.”












