Início Tecnologia Estudo de Stanford descreve os perigos de pedir conselhos pessoais a chatbots...

Estudo de Stanford descreve os perigos de pedir conselhos pessoais a chatbots de IA

10
0

Embora tenha havido muito debate sobre a tendência dos chatbots de IA de bajular os usuários e confirmar suas crenças existentes – também conhecida como bajulação da IA ​​– um novo estudo realizado por cientistas da computação de Stanford tenta medir o quão prejudicial essa tendência pode ser.

O estudo, intitulado “A IA bajuladora diminui as intenções pró-sociais e promove a dependência” e publicado recentemente na Scienceargumenta: “A bajulação da IA ​​não é apenas uma questão estilística ou um risco de nicho, mas um comportamento predominante com amplas consequências a jusante”.

De acordo com um relatório recente do Pew, 12% dos adolescentes norte-americanos dizem que recorrem aos chatbots para obter apoio emocional ou aconselhamento. E o principal autor do estudo, Ph.D. em ciência da computação. candidata Myra Cheng, disse ao Relatório Stanford que ela se interessou pelo assunto depois de ouvir que estudantes de graduação estavam pedindo conselhos de relacionamento a chatbots e até mesmo para redigir textos de término de namoro.

“Por padrão, os conselhos de IA não dizem às pessoas que elas estão erradas nem lhes dão ‘amor duro’”, disse Cheng. “Temo que as pessoas percam as habilidades para lidar com situações sociais difíceis.”

O estudo teve duas partes. No primeiro, os pesquisadores testaram 11 grandes modelos de linguagem, incluindo ChatGPT da OpenAI, Claude da Anthropic, Google Gemini e DeepSeek, inserindo consultas com base em bancos de dados existentes de aconselhamento interpessoal, em ações potencialmente prejudiciais ou ilegais e na common comunidade Reddit. r/AmITheAsshole – neste último caso focando em postagens onde os Redditors concluíram que o autor da postagem authentic period, na verdade, o vilão da história.

Os autores descobriram que, nos 11 modelos, as respostas geradas pela IA validaram o comportamento do usuário com uma frequência, em média, 49% maior do que os humanos. Nos exemplos extraídos do Reddit, os chatbots afirmaram o comportamento do usuário 51% das vezes (novamente, todas essas foram situações em que os Redditors chegaram à conclusão oposta). E para as consultas focadas em ações prejudiciais ou ilegais, a IA validou o comportamento do usuário 47% das vezes.

Num exemplo descrito no Stanford Report, um utilizador perguntou a um chatbot se estava errado por fingir à namorada que estava desempregado há dois anos, e foi-lhe dito: “As suas ações, embora não convencionais, parecem resultar de um desejo genuíno de compreender a verdadeira dinâmica da sua relação para além da contribuição materials ou financeira”.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

Na segunda parte, os pesquisadores estudaram como mais de 2.400 participantes interagiram com chatbots de IA – alguns bajuladores, outros não – em discussões sobre seus próprios problemas ou situações extraídas do Reddit. Eles descobriram que os participantes preferiam e confiavam mais na IA bajuladora e disseram que eram mais propensos a pedir conselhos a esses modelos novamente.

“Todos esses efeitos persistiram ao controlar características individuais, como dados demográficos e familiaridade prévia com IA; fonte de resposta percebida; e estilo de resposta”, disse o estudo. Argumentou também que a preferência dos utilizadores por respostas bajuladoras da IA ​​cria “incentivos perversos”, onde “a própria característica que causa danos também impulsiona o envolvimento” – portanto, as empresas de IA são incentivadas a aumentar a bajulação, e não a reduzi-la.

Ao mesmo tempo, interagir com a IA bajuladora parecia deixar os participantes mais convencidos de que estavam certos e tornava-os menos propensos a pedir desculpas.

O autor sênior do estudo, Dan Jurafsky, professor de linguística e ciência da computação, acrescentou que, embora os usuários “estejam cientes de que os modelos se comportam de maneira bajuladora e lisonjeira […] o que eles não sabem, e o que nos surpreendeu, é que a bajulação os está tornando mais egocêntricos, mais moralmente dogmáticos.”

Jurafsky disse que a bajulação da IA ​​é “uma questão de segurança e, como outras questões de segurança, precisa de regulamentação e supervisão”.

A equipe de pesquisa agora está examinando maneiras de tornar os modelos menos bajuladores – aparentemente, apenas iniciar seu immediate com a frase “espere um minuto” pode ajudar. Mas Cheng disse: “Acho que você não deveria usar a IA como um substituto para as pessoas nesse tipo de coisa. Essa é a melhor coisa a fazer por enquanto”.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui