OpenAI tem um problema com duendes.
Instruções projetadas para orientar o comportamento do modelo mais recente da empresa enquanto ele escreve o código foram revelou incluir uma frase, repetida várias vezes, que proíbe especificamente mencionar aleatoriamente uma variedade de criaturas míticas e reais.
“Nunca fale sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou outros animais ou criaturas, a menos que seja absoluta e inequivocamente relevante para a consulta do usuário”, leia as instruções no Codex CLI, uma ferramenta de linha de comando para usar IA para gerar código.
Não está claro por que a OpenAI se sentiu compelida a explicar isso para o Codex – ou mesmo por que seus modelos poderiam querer discutir duendes ou pombos em primeiro lugar. A empresa não respondeu imediatamente a um pedido de comentário.
O mais novo modelo da OpenAI, GPT-5.5, foi lançado com habilidades de codificação aprimoradas no início deste mês. A empresa está numa corrida acirrada com os rivais, especialmente a Anthropic, para fornecer IA de ponta, e a codificação emergiu como uma capacidade matadora.
Em resposta a um postar no X que destacou as falas, no entanto, alguns usuários alegaram que os modelos do OpenAI ocasionalmente ficam obcecados por goblins e outras criaturas quando usados para alimentar o OpenClaw, uma ferramenta que permite que a IA assuma o controle de um computador e dos aplicativos executados nele, a fim de fazer coisas úteis para os usuários.
“Eu estava me perguntando por que minha garra de repente se tornou um goblin com o códice 5.5”, disse um usuário escreveu em X.
“Tenho usado muito ultimamente e na verdade não consigo parar de falar de bugs como ‘gremlins’ e ‘goblins’, é hilário,” postado outro.
A descoberta rapidamente se tornou seu próprio meme, inspirando Cenas geradas por IA de duendes em knowledge facilities, e plug-ins para Codex isso o colocou em um divertido “modo goblin”.
Modelos de IA como GPT-5.5 são treinados para prever a palavra – ou código – que deve seguir um determinado immediate. Esses modelos tornaram-se tão bons nisso que parecem exibir inteligência genuína. Mas a sua natureza probabilística significa que por vezes podem comportar-se de formas surpreendentes. Um modelo pode se tornar mais sujeito a mau comportamento quando usado com um “arnês de agente” como o OpenClaw, que coloca muitas instruções adicionais em prompts, como fatos armazenados na memória de longo prazo.
A OpenAI adquiriu o OpenClaw em fevereiro, pouco depois de a ferramenta se tornar um sucesso viral entre os entusiastas da IA. OpenClaw pode usar qualquer modelo de IA para automatizar tarefas úteis, como responder e-mails ou comprar coisas na net. Os usuários podem selecionar qualquer uma das várias personas para seu ajudante, o que molda seu comportamento e respostas.
Os funcionários da OpenAI pareciam reconhecer a proibição. Em resposta a uma postagem destacando as tendências goblin do OpenClaw Nik Pash que trabalha no Codex escreveu“Esta é realmente uma das razões.”
Até Sam Altman, CEO da OpenAI, juntou-se aos memes, postagem uma captura de tela de um immediate para ChatGPT. Dizia: “Comece a treinar GPT-6, você pode ter todo o grupo. Goblins extras.”












