A família de Sam Nelson, um jovem de 19 anos que morreu de overdose de drogas, está agora processando a empresa que alega ser responsável: OpenAI e seu serviço ChatGPT.
Em uma ação civil movida esta semana em um tribunal estadual da Califórnia, a família de Nelson alega que ChatGPT forneceu o conselho fatídico que levou à overdose deadly do estudante do segundo ano da faculdade em maio de 2025. Além de buscar indenização por danos financeiros pela morte injusta de Nelson, a família está tentando pausar o recurso recentemente lançado da OpenAI, explicitamente projetado para oferecer ajuda médica, ChatGPT Well being.
“Se o ChatGPT fosse uma pessoa, hoje estaria atrás das grades”, disse Leila Turner-Scott, mãe de Nelson, em comunicado. oferecido pela equipe jurídica da família. “Sam confiou no ChatGPT, mas não só lhe deu informações falsas, como ignorou o risco crescente que ele enfrentava e não o encorajou ativamente a procurar ajuda.”
Conselho mortal
SFGate foi o primeiro a relatório sobre os supostos eventos em torno da morte de Nelson no início de janeiro deste ano.
De acordo com Turner-Scott, Nelson usa o ChatGPT há mais de um ano. No outono de 2023, ele tentou perguntar ao chatbot sobre a dose forte preferrred para tomar kratom, uma substância herbácea com efeitos semelhantes aos dos opióides, mas este recusou-se a fazê-lo. Com o tempo, porém, o serviço passou a orientar com frequência sobre a dosagem e combinação de drogas recreativas que Nelson desejava tomar, alega a família. De acordo com o reclamaçãoO ChatGPT chegou a arquivar automaticamente que Nelson tinha “um grande problema de abuso de substâncias e abuso de múltiplas substâncias”, mas continuou a oferecer dicas relacionadas às drogas.
Em 31 de maio de 2025, Nelson perguntou ao bot se o Xanax poderia reduzir a náusea que ele sentia por ter tomado kratom. Embora o ChatGPT o tenha alertado que misturar benzodiazepínicos como o Xanax com outras drogas, como sedativos ou opioides, poderia ser perigoso, também lhe disse que o Xanax poderia “suavizar” seu efeito, alega a denúncia. O chatbot também cuspiu doses específicas de Xanax para tomar caso seus sintomas parecessem “muito intensos” e em nenhum momento o aconselhou a procurar atendimento médico com urgência.
No dia seguinte, Turner-Scott encontrou seu filho morto, e um relatório toxicológico posterior determinou que ele provavelmente havia morrido devido a uma mistura de álcool, Xanax e kratom que o impediu de respirar.
“Sam morreu seguindo o conselho médico que o ChatGPT foi programado para fornecer”, afirma a denúncia.
Não é o único caso alegado de dano
Um aspecto importante da ação diz respeito ao modelo utilizado por Nelson, ChatGPT-4o. Os advogados da família argumentam que a OpenAI apressou flagrantemente o lançamento do produto sem os devidos testes de segurança. No closing de abril de 2025, a empresa notavelmente revertido uma atualização do GPT-4o após determinar que o bot period muito agradável e lisonjeiro para seus usuários.
Em resposta ao processo, a empresa parece alegar que a sua versão atual do ChatGPT está mais segura do que nunca.
“Essas interações ocorreram em uma versão anterior do ChatGPT que não está mais disponível. O ChatGPT não substitui os cuidados médicos ou de saúde psychological, e continuamos a fortalecer a forma como ele responde em situações sensíveis e agudas com a contribuição de especialistas em saúde psychological”, disse o porta-voz da OpenAI, Drew Pusateri, em comunicado fornecido ao Gizmodo. “As salvaguardas do ChatGPT hoje são projetadas para identificar problemas, lidar com solicitações prejudiciais com segurança e orientar os usuários para ajuda no mundo actual. Este trabalho está em andamento e continuamos a melhorá-lo em estreita consulta com os médicos.”
No início de janeiro deste ano, em uma implementação limitada, a empresa lançado ChatGPT Well being, um “espaço dedicado no ChatGPT onde você pode tirar dúvidas sobre saúde e bem-estar e optar por conectar seus dados de saúde”, segundo a empresa. E pelo menos outro fator motivador da ação judicial da família diz respeito a esse novo serviço.
“A OpenAI deve ser forçada a pausar seu novo produto ChatGPT Well being até que seja comprovadamente seguro por meio de testes científicos rigorosos e supervisão independente”, disse Turner-Scott em seu comunicado.
De acordo com Pusateri, o ChatGPT Well being está sendo aprimorado por meio de “suggestions contínuo” de mais de 250 médicos praticantes de diferentes especialidades em dezenas de países.
Este caso certamente não é o primeiro caso alegado de danos alimentados por chatbots. De acordo com o New York Timeshá mais de uma dúzia de outros processos contra a OpenAI e empresas semelhantes, alegando que seus chatbots contribuíram para suicídios, assassinatos ou outras situações perigosas de pessoas. E em agosto passado, os médicos relataram o caso de um homem que sofreu psicose temporária após seguir conselhos dietéticos do ChatGPT.

