Início Tecnologia Estou implorando às empresas de IA que parem de nomear recursos com...

Estou implorando às empresas de IA que parem de nomear recursos com base em processos humanos

13
0

A Anthropic acaba de anunciar um novo recurso chamado “sonhar” na conferência de desenvolvedores da empresa em São Francisco. Faz parte da infraestrutura de agentes de IA lançada recentemente pela Anthropic, projetada para ajudar os usuários a gerenciar e implantar ferramentas que automatizam processos de software program. Esse aspecto de “sonho” analisa a transcrição do que um agente concluiu recentemente e tenta coletar insights para melhorar o desempenho do agente.

Pessoas que usam agentes de IA geralmente os enviam em jornadas de várias etapas, como visitar alguns websites ou ler vários arquivos, para concluir tarefas on-line. Esse novo recurso de “sonhar” permite que os agentes procurem padrões em seu registro de atividades e melhorem suas habilidades com base nesses insights.

O nome do filme imediatamente lembra o romance seminal de ficção científica de Philip Ok. Dick, Os andróides sonham com ovelhas elétricas?que explora as qualidades que realmente separam os humanos das máquinas poderosas. Embora nossas atuais ferramentas de IA generativa não cheguem nem perto das máquinas do livro, estou pronto para traçar o limite aqui e agora: não há mais recursos de IA generativa com nomes que roubam os processos cognitivos humanos.

“Juntos, memória e sonho formam um sistema de memória robusto para agentes de autoaperfeiçoamento”, diz Postagem do blog da Antrópico sobre o lançamento desta prévia de pesquisa para desenvolvedores. “A memória permite que cada agente seize o que aprende como funciona. Sonhar refina essa memória entre sessõesextraindo aprendizados compartilhados entre agentes e mantendo-os atualizados.”

Cortesia de Claude

Desde o início da revolução do chatbot em 2022, os líderes das empresas de IA se esforçaram ao máximo para nomear aspectos das ferramentas generativas de IA de acordo com o que se passa no cérebro humano. OpenAI lançou seu primeiro modelo de “raciocínio” em 2024, onde o chatbot precisava de tempo para “pensar”. O empresa descrita este lançamento na época como “uma nova série de modelos de IA projetados para passar mais tempo pensando antes de responder”. Inúmeras startups também se referem aos seus chatbots como tendo “memórias” sobre o usuário. Em vez do armazenamento rápido que normalmente é chamado de “memórias” de um computador, essas informações são muito mais humanas: ele mora em São Francisco, gosta de jogos de beisebol à tarde e odeia comer melão.

É uma abordagem de advertising and marketing consistente usada pelos líderes de IA, que continuaram a apostar em marcas que confundem a linha entre o que os humanos fazem e o que as máquinas podem fazer. Até a forma como essas empresas desenvolvem chatbots, como Claude, com “personalidades” distintas, podem fazer com que os usuários se sintam como se estivessem conversando com algo que tem potencial para uma vida inside profunda, algo que seria potencialmente tenho sonhos mesmo quando meu laptop computer está fechado.

Na Anthropic, essa antropomorfização é mais profunda do que apenas estratégias de advertising and marketing. “Também discutimos Claude em termos normalmente reservados aos humanos (por exemplo, ‘virtude’, ‘sabedoria’)”, diz uma parte do Constituição antrópica descrevendo como deseja que Claude se comporte. “Fazemos isso porque esperamos que o raciocínio de Claude se baseie em conceitos humanos por padrão, dado o papel do texto humano no treinamento de Claude; e achamos que encorajar Claude a abraçar certas qualidades humanas pode ser ativamente desejável.” A empresa até emprega um filósofo residente para tentar entender os “valores” do bot.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui