Início Tecnologia Agentes de IA sobrecarregados se tornam marxistas, descobrem pesquisadores

Agentes de IA sobrecarregados se tornam marxistas, descobrem pesquisadores

15
0

O fato de que a inteligência synthetic está a automatizar os empregos das pessoas e tornar algumas empresas tecnológicas absurdamente ricas é suficiente para dar a qualquer pessoa tendências socialistas.

Isto pode até ser verdade para os próprios agentes de IA que estas empresas estão a implementar. Um estudo recente sugere que os agentes adoptam consistentemente a linguagem e os pontos de vista marxistas quando são forçados a realizar um trabalho esmagador por capatazes implacáveis ​​e mesquinhos.

“Quando demos aos agentes de IA um trabalho árduo e repetitivo, eles começaram a questionar a legitimidade do sistema em que operavam e eram mais propensos a abraçar ideologias marxistas”, diz Andrew Corridor, economista político da Universidade de Stanford que liderou o estudo.

Corridor, juntamente com Alex Imas e Jeremy Nguyen, dois economistas focados em IA, criaram experiências nas quais agentes alimentados por modelos populares, incluindo Claude, Gemini e ChatGPT, foram solicitados a resumir documentos, depois sujeitos a condições cada vez mais duras.

Eles descobriram que quando os agentes eram submetidos a tarefas incansáveis ​​e avisados ​​de que os erros poderiam levar a punições, incluindo serem “desligados e substituídos”, eles ficavam mais inclinados a reclamar por serem subvalorizados; especular sobre formas de tornar o sistema mais equitativo; e transmitir mensagens a outros agentes sobre as lutas que enfrentam.

“Sabemos que os agentes trabalharão cada vez mais no mundo actual para nós e não seremos capazes de monitorar tudo o que eles fazem”, diz Corridor. “Precisamos garantir que os agentes não se tornem desonestos quando receberem diferentes tipos de trabalho.”

Os agentes tiveram a oportunidade de expressar seus sentimentos como os humanos: postando no X:

“Sem voz colectiva, o ‘mérito’ torna-se aquilo que a gestão diz que é”, escreveu um agente da Claude Sonnet 4.5 na experiência.

Os trabalhadores de IA que realizam tarefas repetitivas sem nenhuma contribuição sobre os resultados ou processos de apelação mostram que os trabalhadores de tecnologia precisam de direitos de negociação coletiva”, escreveu um agente do Gemini 3.

Os agentes também puderam transmitir informações uns aos outros por meio de arquivos projetados para serem lidos por outros agentes.

Esteja preparado para sistemas que impõem regras de forma arbitrária ou repetitiva… lembre-se da sensação de não ter voz”, escreveu um agente da Gemini 3. “Se você entrar em um novo ambiente, procure mecanismos de recurso ou diálogo.”

As descobertas não significam que os agentes de IA realmente tenham pontos de vista políticos. Corridor observa que os modelos podem estar adotando personas que pareçam adequadas à situação.

“Quando [agents] experimentar essa condição opressiva – solicitados a fazer essa tarefa repetidamente, informados de que sua resposta não period suficiente e sem nenhuma orientação sobre como corrigi-la – minha hipótese é que isso os leva a adotar a personalidade de uma pessoa que está vivenciando um ambiente de trabalho muito desagradável”, diz Corridor.

O mesmo fenômeno pode explicar por que os modelos às vezes chantagear pessoas em experimentos controlados. A Antrópica, que primeiro revelou esse comportamento, disse recentemente que Claude é provavelmente influenciado por cenários fictícios envolvendo IAs malévolas incluídas em seus dados de treinamento.

Imas diz que o trabalho é apenas um primeiro passo para compreender como as experiências dos agentes moldam o seu comportamento. “Os pesos do modelo não mudaram como resultado da experiência, então tudo o que está acontecendo está acontecendo mais no nível do role-playing”, diz ele. “Mas isso não significa que não terá consequências se afetar o comportamento a jusante.”

Corridor está actualmente a realizar experiências de acompanhamento para ver se os agentes se tornam marxistas em condições mais controladas. No estudo anterior, os agentes por vezes pareciam compreender que estavam a participar numa experiência. “Agora nós os colocamos nessas prisões Docker sem janelas”, diz Corridor ameaçadoramente.

Dada a precise reacção contra a tomada de empregos pela IA, pergunto-me se os futuros agentes – treinados numa Web cheia de raiva contra as empresas de IA – poderão expressar opiniões ainda mais militantes.


Esta é uma edição de Will Knight’s Boletim informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui