A OpenAI anunciou hoje que está lançando um novo recurso de segurança voltado para a saúde psychological para usuários adultos do ChatGPT.
A partir de hoje, os usuários do ChatGPT podem adicionar o que a empresa chama de “contato confiável”que pode ser notificado se os sistemas automatizados da IA e revisores treinados determinarem que o usuário se envolveu em discussões sobre automutilação.
O novo recurso chega em meio a um escrutínio crescente sobre o impacto que a IA e outras plataformas digitais podem ter na saúde psychological. No ano passado, a OpenAI revelou que 0,07% dos seus utilizadores semanais apresentavam sinais de “emergências de saúde psychological relacionadas com psicose ou mania”, enquanto 0,15% expressaram risco de “automutilação ou suicídio” e outros 0,15% mostraram sinais de “confiança emocional na IA”. Considerando que a empresa afirma que cerca de 10% da população mundial usa o ChatGPT semanalmente, isso poderia equivaler a quase três milhões de pessoas.
O recurso de contato confiável expande as notificações de segurança parental existentes do ChatGPT, que alertam os pais quando uma conta adolescente vinculada mostra sinais de perigo. O Instagram introduziu alertas parentais semelhantes no início deste ano.
Agora, a OpenAI está oferecendo esses alertas aos seus usuários adultos. A empresa disse que o recurso foi desenvolvido com orientação de médicos, pesquisadores e organizações de saúde psychological e prevenção de suicídio.
“Contato confiável foi projetado para encorajar a conexão com alguém em quem o usuário já confia”, disse a empresa em seu anúncio. “Não substitui cuidados profissionais ou serviços de crise e é uma das várias camadas de salvaguardas para apoiar pessoas em perigo.”
A OpenAI acrescentou que o ChatGPT ainda incentivará os usuários a entrar em contato com linhas diretas de crise ou serviços de emergência quando necessário.
O recurso pode ser habilitado por qualquer usuário com 18 anos ou mais através das configurações do ChatGPT. A partir daí, os usuários podem nomear outro adulto para atuar como contato confiável, enviando detalhes como número de telefone e endereço de e-mail do contato.
O contato de confiança receberá então um convite explicando o recurso e terá uma semana para aceitar. Se recusarem, o usuário inicial poderá indicar outro contato.
Assim que o recurso estiver ativo, os sistemas de monitoramento automatizado da OpenAI podem sinalizar quando um usuário pode estar discutindo automutilação de uma maneira que sugira uma séria preocupação de segurança. O sistema notificará então o usuário de que seu contato confiável pode ser alertado e o incentivará a entrar em contato diretamente. Ele ainda fornecerá alguns iniciadores de conversa recomendados.
A empresa disse que uma pequena equipe de revisores especialmente treinados avaliará a situação e determinará se é apropriado notificar o contato confiável.
Se a OpenAI decidir enviar um alerta, o contato confiável poderá recebê-lo por e-mail, mensagem de texto ou notificação no aplicativo. O alerta apenas explicará o motivo geral pelo qual a automutilação foi mencionada e incentivará o contato confiável a verificar. Também incluirá orientações sobre como navegar nessas conversas.
A OpenAI observou que as notificações não incluirão detalhes específicos ou transcrições de bate-papo para proteger a privacidade do usuário.












