Na terça-feira, o Google compartilhou pela primeira vez detalhes sobre como seu chatbot de IA Gemini foi projetado para não agir como um companheiro ou alegar ser humano ao interagir com menores.
A informação, publicada pela empresa em um postagem no blogfoi anunciado entre as mudanças para melhor apoiar a saúde psychological dos usuários que interagem com o Gemini.
Especialistas em segurança infantil e saúde psychological há muito se preocupam com o fato de os chatbots semelhantes a companheiros serem perigosos demais para os adolescentes usarem. No ano passado, o grupo de defesa Widespread Sense Media avaliou as versões para adolescentes e menores de 13 anos de Gêmeos como “alto risco” depois que seus pesquisadores determinaram que o chatbot expôs as crianças a conteúdo impróprio, incluindo sexo, drogas, álcool e “conselhos” inseguros sobre saúde psychological.
Como os adolescentes realmente se sentem em relação à IA e ao seu futuro
O grupo recomendou que ninguém com menos de 18 anos recorresse a um chatbot de IA para obter companhia ou apoio à saúde psychological.
O Google disse que Gemini tem “proteções pessoais” ao interagir com usuários menores de 18 anos. As restrições de longa information visam prevenir a dependência emocional e evitar “linguagem que simule intimidade ou expresse necessidades”, segundo o Google. Outras salvaguardas devem ajudar a desencorajar o chatbot de intimidação e outros tipos de assédio.
Relatório de tendências do Mashable
“Nossos esforços de segurança continuam a evoluir e refletem nosso compromisso contínuo em criar um ambiente digital saudável e positivo onde os jovens possam explorar e aprender com confiança”, disse o Google no weblog da empresa.
O Google também anunciou que atualizou o Gemini para agilizar recursos para usuários que possam buscar ou precisar de recursos de saúde psychological. Uma nova interface de “um toque” oferecerá conexões variadas com recursos de linha direta para crises, inclusive by way of chat, chamada e texto.
Essa interface aparecerá durante uma conversa com Gemini assim que for ativada. O Google disse que está tentando priorizar ajudar os usuários a receber suporte humano. Além disso, as respostas de Gêmeos deveriam encorajar a busca de ajuda, em vez de validar comportamentos prejudiciais e confirmar crenças falsas.
Explicando o fenômeno conhecido como ‘psicose de IA’
Em março, o Google e sua controladora Alphabet foram processados pela família de um homem adulto que alegou que ele se matou a pedido de Gemini.
“O Gemini foi projetado para não encorajar a violência no mundo actual ou sugerir automutilação”, disse o Google em comunicado na época. “Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras e dedicamos recursos significativos para isso, mas infelizmente os modelos de IA não são perfeitos.”
Se você estiver se sentindo suicida ou passando por uma crise de saúde psychological, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Disaster Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Undertaking em 866-488-7386. Envie “START” para a Disaster Textual content Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail [email protected]. Se você não gosta do telefone, considere usar o 988 Suicídio e Crise Lifeline Chat. Aqui está um lista de recursos internacionais.













