Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- A IA está melhorando em tarefas pequenas, mas ainda fica atrasada em análises longas.
- As consequências das interações prolongadas com a IA podem ser desastrosas.
- Use a IA como uma ferramenta para tarefas bem definidas e evite cair na toca do coelho.
É melhor fazer um pouco bem do que muito mal. Assim disse o grande filósofo Sócrates, e seu conselho pode ser aplicado ao uso da inteligência synthetic, incluindo chatbots como o ChatGPT da OpenAI, ou Perplexity, bem como os programas de IA de agência cada vez mais testados nas empresas.
A investigação sobre IA mostra cada vez mais que o caminho mais seguro e produtivo com a IA é utilizá-la para tarefas pequenas e limitadas, onde os resultados podem ser bem definidos e os resultados podem ser verificados, em vez de prosseguir interacções extensas com a tecnologia ao longo de horas, dias e semanas.
Além disso: pedindo aconselhamento médico à IA? Existe uma maneira certa e errada, explica um médico
Interações prolongadas com chatbots como ChatGPT e Perplexity podem, no mínimo, levar à desinformação e, em alguns casos, ilusão e morte. A tecnologia ainda não está pronta para assumir os tipos mais sofisticados de exigências de raciocínio, lógica, bom senso e análise profunda – áreas onde a mente humana reina suprema.
(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com uma ação judicial em abril de 2025 contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
Ainda não chegamos à AGI (Inteligência Geral Synthetic), as supostas capacidades de nível humano da IA, então seria bom manter em mente as limitações da tecnologia ao usá-la.
Simplificando, use a IA como uma ferramenta, em vez de se deixar ser sugado pela toca do coelho e se perder em intermináveis rodadas de conversas sobre IA.
O que a IA faz bem – e não tão bem
A IA tende a ter um bom desempenho em tarefas simples, mas fraca em tipos de análise complexos e profundos.
Os exemplos mais recentes disso são as principais conclusões do lançamento desta semana do Índice Anual de IA 2026 do grupo de estudiosos de IA centrada no ser humano da Universidade de Stanford.
Por um lado, a editora-chefe Sha Sajadieh e os seus colaboradores deixam claro que a IA de agência tem cada vez mais sucesso em tarefas como a procura de informações na Net. Na verdade, os agentes estão próximos do nível humano nos processos on-line de rotina.
Além disso: 10 maneiras pelas quais a IA pode infligir danos sem precedentes
Em três testes de benchmark – GAIA, OSWorlde WebArena — Sajadieh e sua equipe descobriram que os agentes estão se aproximando do desempenho de nível humano em tarefas de várias etapas, como abrir um banco de dados, aplicar uma regra de política e, em seguida, atualizar um registro de cliente. No teste GAIA, os agentes têm uma taxa de precisão de 74,5%, ainda abaixo dos 92% do desempenho humano, mas muito acima dos 20% de um ano atrás.
No teste OSWorld, “os estudantes de ciência da computação resolvem cerca de 72% dessas tarefas com um tempo médio de aproximadamente dois minutos”, enquanto Claude Opus 4.5 da Anthropic, até recentemente seu modelo mais poderoso, atinge 66,3%. Isso significa “o melhor modelo [is] dentro de 6 pontos percentuais do desempenho humano.”
WebArena mostra modelos de IA “agora dentro de 4 pontos percentuais da linha de base humana de 78,2%” de precisão.
A Agentic AI está melhorando em tarefas on-line, como navegação na Net, mas ainda fica aquém da precisão do nível humano.
Stanford
Embora Claude Opus e outros LLMs não sejam perfeitos, mostram um progresso rápido, pelo menos atingindo níveis de referência que se aproximam do desempenho a nível humano.
Isso faz sentido, já que manipular um navegador da Net ou procurar algo em um banco de dados deve estar entre os cenários mais fáceis em que o immediate de linguagem pure pode ser conectado a APIs e recursos externos. Por outras palavras, a IA deve ter a maior parte do equipamento necessário para interagir com aplicações de formas limitadas e realizar tarefas.
Além disso: 40 milhões de pessoas em todo o mundo usam o ChatGPT para cuidados de saúde – mas é seguro?
Observe que mesmo com tarefas limitadas e bem definidas, ajuda verificar o que você está obtendo de um bot, já que a pontuação média nesses benchmarks ainda fica aquém da capacidade humana – e isso está em testes de benchmark, uma espécie de desempenho simulado. Em configurações do mundo actual, seus resultados podem variar, e não para o lado positivo.
A IA não consegue lidar com as coisas difíceis
Quando se aprofundaram em tipos de trabalho mais profundos, os estudiosos de Stanford encontraram resultados muito menos encorajadores.
A pesquisa descobriu, observaram eles, que “os modelos lidam bem com pesquisas simples, mas têm dificuldade quando solicitados a encontrar várias informações correspondentes ou a aplicar condições em um documento muito longo – tarefas que seriam simples para um ser humano digitalizando o mesmo texto”.
Essa descoberta está de acordo com minha própria experiência anedótica usando ChatGPT para elaborar um plano de negócios. As respostas foram boas nas primeiras rodadas de sugestões, mas depois se degradaram à medida que o modelo introduziu fatos e números que eu não havia especificado, ou que poderiam ter sido relevantes no início do processo, mas não deveriam ser incluídos no contexto atual.
A lição, concluí, foi que quanto mais longas as sessões do ChatGPT, mais erros aparecem. Isso torna a experiência irritante.
Também: Elaborei um plano de negócios com ChatGPT e ele se transformou em um conto de advertência
Os resultados da elaboração descontrolada do bot podem ficar mais sérios. Um artigo na semana passada em Natureza A revista descreve como a cientista Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gotemburgo, e sua equipe inventaram uma doença, a “bixonimania”, que descreveram como uma doença ocular resultante da exposição excessiva à luz azul das telas de computador.
Eles escreveram artigos de pesquisa formais sobre a condição inventada e depois os publicaram on-line. Os papéis foram recolhidos em pesquisas baseadas em bots. A maioria dos grandes modelos de linguagem, incluindo o Gemini do Google, começou a relacionar fielmente a condição bixonimania em bate-papos, apontando para os documentos de pesquisa falsos de Thunström e sua equipe.
O facto de os bots afirmarem com segurança a existência da falsa bixonimania demonstra uma falta de supervisão do acesso da tecnologia à informação. Sem a verificação adequada, você não pode saber se um modelo verificará o que está divulgando. Como observou um estudioso que não esteve envolvido na pesquisa: “Deveríamos avaliar [the AI model] e ter um pipeline para avaliação contínua.”
As consequências podem ser graves
Uma variante mais séria, em que um usuário parece ter caído na toca do coelho ao confiar em um bot, é descrita em um recente Artigo do New York Times por Teddy Rosenbluth sobre o caso de um homem mais velho que luta contra o câncer de glóbulos brancos.
Em vez de seguir o conselho do oncologista, o paciente, Joe Riley, confiou na extensa interação com chatbots, especialmente o Perplexity, para refutar o diagnóstico do médico. Ele insistiu que sua pesquisa de IA revelou que ele tinha o que é chamado de Transformação de Richter, uma complicação do câncer que se tornaria mais adversa com o tratamento recomendado.
Além disso: usar a visão geral do Google AI para obter conselhos de saúde? É ‘muito perigoso’, revela investigação
Apesar dos e-mails de especialistas sobre o questionamento de Richter sobre o materials nos resumos da condição do Perplexity, Riley manteve sua crença em seus relatórios gerados por IA e resistiu aos apelos de seu médico e de sua família. Ele perdeu a janela para um tratamento adequado e, quando cedeu e concordou em tentar o tratamento, já period tarde demais.
Rosenbluth faz a conexão entre a história de Joe Riley e o caso de Adam Raine no ano passadoque cometeu suicídio após extensas conversas com ChatGPT sobre sua intenção de acabar com sua vida.
O filho de Riley, Ben Riley, escreveu seu próprio relato sobre a jornada de seu pai com a IA. Embora o jovem Riley não culpe a tecnologia em si, ele ressalta que ficar imerso em bate-papos e perder a perspectiva pode ter consequências.
“O fato é que a IA faz existe em nosso mundo”, escreve Riley, “e assim como pode servir de combustível para aqueles que sofrem de psicose maníaca, também pode afirmar ou ampliar nossa compreensão equivocada do que está acontecendo conosco física e clinicamente”.
Permanecendo são com IA não confiável
A inclinação para se envolver em discussões prolongadas sobre depressão, suicídio e problemas graves de saúde é compreensível. As pessoas estão habituadas a compromissos longos, de horas seguidas, nas redes sociais. Algumas pessoas se sentem solitárias, e uma conversa em linguagem pure com um bot é melhor do que nenhuma conversa.
Também: Seu chatbot está interpretando um personagem – por que a Anthropic diz que isso é perigoso
Os bots têm uma tendência à bajulação, mostram pesquisas, o que pode tornar horas de envolvimento com um bot mais gratificantes do que o dar e receber comum com uma pessoa.
E as empresas que fabricam a tecnologia, embora alertem os usuários para verificarem os resultados dos bots, tendem a dar menos ênfase aos relatórios negativos de indivíduos como Riley e Raine.
4 regras para evitar a toca do coelho
Algumas regras podem ajudar a mitigar os piores efeitos de colocar demasiada ênfase na tecnologia.
- Defina para que você está indo para um chatbot. Existe uma tarefa bem definida que tenha um escopo limitado e para a qual as previsões do bot possam ser verificadas com outras fontes?
- Tenha um ceticismo saudável. É bem sabido que os chatbots são propensos à confabulação, afirmando falsidades com confiança. Não importa quantos chatbots você usa para tentar equilibrar o que é bom e o que é ruim; todos eles deveriam ser tratados com um ceticismo saudável, como tendo apenas parte da verdade, se é que alguma existe.
- Considere os chatbots não como amigos ou confidentes. São ferramentas digitais, como Phrase ou Excel. Você não está tentando ter um relacionamento com um bot, mas sim completar uma tarefa.
- Use habilidades comprovadas de sobrecarga digital. Faça pausas para alongamento. Afaste-se do computador para uma interação humana não digital, como jogar cartas com um amigo ou dar um passeio.
Além disso: pare de dizer que a IA alucina – isso não acontece. E a descaracterização é perigosa
Cair na toca do coelho acontece em parte como resultado de simplesmente estar estacionado em frente a uma tela sem tempo de inatividade.









