Usando chatbots de IA mesmo que apenas por 10 minutos possa ter um impacto negativo chocante na capacidade das pessoas de pensar e resolver problemas, de acordo com um novo estudo de pesquisadores da Carnegie Mellon, MIT, Oxford e UCLA.
Os pesquisadores encarregaram as pessoas de resolver vários problemas, incluindo frações simples e compreensão de leitura, por meio de uma plataforma on-line que lhes pagava pelo seu trabalho. Eles conduziram três experimentos, cada um envolvendo centenas de pessoas. Alguns participantes tiveram acesso a um assistente de IA capaz de resolver o problema de forma autônoma. Quando o ajudante de IA foi retirado repentinamente, essas pessoas ficaram significativamente mais propensas a desistir do problema ou a errar nas respostas. O estudo sugere que o uso generalizado da IA pode aumentar a produtividade em detrimento do desenvolvimento de competências fundamentais de resolução de problemas.
“A conclusão não é que devamos proibir a IA na educação ou nos locais de trabalho”, diz Michiel Bakker, professor assistente do MIT envolvido no estudo. “A IA pode claramente ajudar as pessoas a ter um melhor desempenho no momento, e isso pode ser valioso. Mas devemos ter mais cuidado com o tipo de ajuda que a IA fornece e quando.”
Recentemente me encontrei com Bakker, que tem cabelos caóticos e um sorriso largo, no campus do MIT. Originário da Holanda, trabalhou anteriormente no Google DeepMind em Londres. Ele me disse que um ensaio conhecido sobre a forma como a IA pode enfraquecer os humanos ao longo do tempo inspirou-o a pensar sobre como a tecnologia já poderia estar a desgastar as capacidades das pessoas. O ensaio é uma leitura um pouco sombria, porque sugere que o enfraquecimento é inevitável. Dito isto, talvez descobrir como a IA pode ajudar as pessoas a desenvolver as suas próprias capacidades mentais deva fazer parte da forma como os modelos estão alinhados com os valores humanos.
“É fundamentalmente uma questão cognitiva – sobre persistência, aprendizagem e como as pessoas respondem às dificuldades”, diz-me Bakker. “Queríamos pegar essas preocupações mais amplas sobre a interação humano-IA de longo prazo e estudá-las em um ambiente experimental controlado.”
O estudo resultante parece particularmente preocupante, diz Bakker, porque a vontade de uma pessoa persistir na resolução de problemas é essential para adquirir novas competências e também prevê a sua capacidade de aprender ao longo do tempo.
Bakker diz que pode ser necessário repensar como as ferramentas de IA funcionam para que – como um bom professor humano – os modelos às vezes priorizem o aprendizado de uma pessoa em vez de resolver um problema para ela. “Os sistemas que fornecem respostas diretas podem ter efeitos a longo prazo muito diferentes dos sistemas que estruturam, treinam ou desafiam o usuário”, diz Bakker. Ele admite, no entanto, que equilibrar este tipo de abordagem “paternalista” pode ser complicado.
As empresas de IA já pensam nos efeitos mais sutis que seus modelos podem ter sobre os usuários. A bajulação de alguns modelos – ou a probabilidade de eles concordarem e patrocinarem os usuários – é algo que OpenAI procurou diminuir o tom com versões mais recentes do GPT.
Colocar muita fé na IA pareceria especialmente problemático quando as ferramentas podem não se comportar conforme o esperado. Os sistemas de IA Agentic são particularmente imprevisíveis porque realizam tarefas complexas de forma independente e podem introduzir erros estranhos. Isso faz você se perguntar o que Claude Code e Codex estão fazendo com as habilidades dos programadores que às vezes precisam corrigir os bugs que introduzem.
Recentemente, aprendi uma lição sobre o perigo de transferir o pensamento crítico para a IA. Tenho usado o OpenClaw (com Codex dentro) como ajudante diário e descobri que ele é extremamente bom para resolver problemas de configuração no Linux. Recentemente, porém, depois que minha conexão Wi-Fi continuou caindo, meu assistente de IA sugeriu executar uma série de comandos para ajustar o driver que fala com a placa Wi-Fi. O resultado foi uma máquina que se recusou a inicializar, não importa o que eu fizesse.
Talvez, em vez de simplesmente tentar resolver o problema para mim, o OpenClaw devesse ter feito uma pausa para me ensinar como resolver o problema sozinho. Como resultado, posso ter um computador – e um cérebro – mais capazes.
Esta é uma edição de Will Knight’s Boletim informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.











