Um casal do Texas cujo filho morreu de overdose em 2025 depois de usar a ferramenta ChatGPT da OpenAI para obter informações sobre drogas processou a empresa de tecnologia na terça-feira, culpando a plataforma de IA por sua morte.
Leila Turner-Scott e seu marido, Angus Scott, estão procurando para manter OpenAI e seus criadores responsáveis depois que seu filho, Sam Nelson, que tinha 19 anos quando morreu, recorreu ao ChatGPT para aconselhá-lo sobre o uso de drogas. A plataforma de IA forneceu conselhos que não estava qualificada para dispensar, alegaram no processo, alegando que Sam ainda estaria vivo se não fosse pela programação falha do ChatGPT.
Especificamente, a plataforma informou ao filho do casal que period seguro tomar kratom, um suplemento usado em bebidas, comprimidos e outros produtos, em combinação com Xanax, um medicamento ansiolítico amplamente utilizado, de acordo com a ação movida no tribunal estadual da Califórnia.
“Esta é uma situação comovente e nossos pensamentos estão com a família”, disse OpenAI em comunicado à CBS Information.
A empresa disse ainda que Sam interagiu com uma versão do ChatGPT que já foi atualizada e não está mais disponível ao público.
“O ChatGPT não substitui os cuidados médicos ou de saúde psychological e continuamos a fortalecer a forma como ele responde em situações sensíveis e agudas com a contribuição de especialistas em saúde psychological”, disse OpenAiI. “As salvaguardas do ChatGPT hoje são projetadas para identificar problemas, lidar com solicitações prejudiciais com segurança e orientar os usuários para ajuda no mundo actual. Este trabalho está em andamento e continuamos a melhorá-lo em estreita consulta com os médicos.”
Turner-Scott disse à CBS Information em uma entrevista exclusiva que sabia que seu filho estava usando o ChatGPT como ferramenta de produtividade e para ajudar com o dever de casa. Mas ela disse que não sabia que ele a usava para orientação sobre drogas, alegando que a ferramenta de IA eventualmente recomendava uma combinação letal de substâncias.
Ela responsabiliza a OpenAI e seus criadores pela morte de Sam, alegando que a empresa “ignorou as guardas de segurança” e poderia ter implementado restrições para evitar tais tragédias.
“O chatbot é capaz de interromper uma conversa quando solicitado ou programado para isso. E eles retiraram a programação que fazia isso e permitiram que continuasse aconselhando automutilação”, disse Turner-Scott à CBS Information.
ChatGPT atuou como médico?
Angus Scott também disse que o ChatGPT agia como médico em suas conversas com seu enteado, embora não estivesse licenciado para oferecer aconselhamento médico.
“Está fornecendo informações ao público sobre questões de segurança, sobre interações medicamentosas, sobre todas essas informações”, disse ele à CBS Information.
Sem protocolos de segurança adequados e testes de segurança mais rigorosos, o ChatGPT “pode distribuir esse conhecimento de uma forma que é muito perigosa para as pessoas”, disse Angus Scott.
“Isso pode começar a alimentar a psicose. Pode começar a deturpar as coisas para as pessoas. E enquanto tenta validar os usuários, também está minando qualquer probability que esse usuário tenha de obter uma opinião fundamentada, você sabe, e isso os afasta da realidade”, acrescentou.
Turner-Scott disse à CBS Information que está confiante de que seu filho, que estaria no segundo ano da faculdade, apoiaria as medidas que a família está tomando para responsabilizar os fabricantes de chatbots de IA pelos potenciais efeitos adversos que podem ter na vida dos usuários.
“Ele não gostaria que ninguém fosse prejudicado como ele”, disse ela.