Início Tecnologia O risco empresarial que ninguém está modelando: a IA está substituindo os...

O risco empresarial que ninguém está modelando: a IA está substituindo os próprios especialistas com os quais precisa aprender

3
0

Para que os sistemas de IA continuem a melhorar no trabalho do conhecimento, necessitam de um mecanismo fiável para o autoaperfeiçoamento autónomo ou de avaliadores humanos capazes de detectar erros e gerar suggestions de alta qualidade. A indústria investiu enormemente no primeiro. É quase não pensar no que está acontecendo com o segundo.

Eu diria que precisamos tratar o problema da avaliação humana com tanto rigor e investimento quanto investimos na construção das próprias capacidades do modelo. A contratação de novos graduados em grandes empresas de tecnologia tem caiu pela metade desde 2019. Revisão de documentos, pesquisa inicial, limpeza de dados, revisão de código: os modelos lidam com isso agora. Os economistas que acompanham isto chamam-lhe deslocamento. As empresas que fazem isso chamam isso de eficiência. Nenhum dos dois está se concentrando no problema futuro.

Por que o autoaperfeiçoamento tem limites no trabalho do conhecimento

A resistência óbvia é a aprendizagem por reforço (RL). AlphaZero aprendeu Go, xadrez e Shogi em níveis sobre-humanos sem dados humanos e gerou novas estratégias no processo. O lance 37 na partida de 2016 contra Lee Sedol, um lance que os profissionais disseram que nunca teriam jogado, não veio de anotação humana. Surgiu do autojogo da IA.

O que permite isso é a estabilidade do meio ambiente. O movimento 37 é um movimento novo dentro do espaço de estado fixo de Go. As regras são completas, inequívocas e permanentes. Mais importante ainda, o sinal de recompensa é perfeito: ganhar ou perder, e imediato, sem espaço para interpretação. O sistema sempre sabe se uma jogada foi boa porque o jogo eventualmente termina com um resultado claro.

O trabalho do conhecimento não possui nenhuma dessas propriedades. As regras em qualquer domínio profissional são dinâmicas e continuamente reescritas pelos humanos que nelas operam. Novas leis são aprovadas. Novos instrumentos financeiros são inventados. Uma estratégia jurídica que funcionou em 2022 pode falhar numa jurisdição que desde então mudou a sua interpretação. Se um diagnóstico médico estava certo, talvez não se saiba durante anos. Sem um ambiente estável e um sinal de recompensa inequívoco, não é possível fechar o ciclo. Você precisa de humanos na cadeia de avaliação para continuar ensinando o modelo.

O problema da formação

Os sistemas de IA que estão sendo construídos hoje foram treinados com base na experiência de pessoas que passaram exatamente por essa formação. A diferença agora é que os empregos iniciais que desenvolvem esse conhecimento foram automatizados primeiro. O que significa que a próxima geração de potenciais especialistas não está a acumular tipo de julgamento isso faz com que valha a pena ter um avaliador humano por perto.

A história tem exemplos de morte do conhecimento. Concreto romano. Técnicas de construção gótica. Tradições matemáticas que levaram séculos para serem recuperadas. Mas em todos os casos históricos a causa foi externa: a peste, a conquista, o colapso das instituições que abrigavam o conhecimento. A diferença aqui é que nenhuma força externa é necessária. Os campos poderiam atrofiar não por causa da catástrofe, mas por mil decisões económicas individualmente racionais, cada uma delas sensata isoladamente. Esse é um mecanismo novo e não temos muita prática em reconhecê-lo enquanto está acontecendo.

Quando campos inteiros ficam quietos

No seu limite lógico, este não é apenas um problema de pipeline. É um colapso na demanda pela própria experience.

Considere a matemática avançada. Não atrofia porque deixamos de formar matemáticos. Atrofia porque as organizações deixam de precisar de matemáticos para o seu trabalho quotidiano, o incentivo económico para se tornarem matemáticos desaparece, a população de pessoas que conseguem fazer raciocínio matemático de fronteira diminui e a capacidade do campo para gerar novos insights entra em colapso silenciosamente. A mesma lógica se aplica à codificação. Nossa questão não é “a IA escreverá código”, mas “se a IA escreve todo o código de produção, quem desenvolverá a intuição arquitetônica profunda que produz projetos de sistemas genuinamente novos?”

Há uma diferença crítica entre um campo sendo automatizado e um campo sendo compreendido. Hoje podemos automatizar uma grande quantidade de engenharia estrutural, mas o conhecimento abstrato de por que certas abordagens funcionam vive na cabeça de pessoas que passaram anos fazendo tudo errado primeiro. Se você eliminar a prática, não perderá apenas os praticantes. Você perde a capacidade de saber o que perdeu.

Matemática avançada, ciência da computação teórica, raciocínio jurídico profundo, arquitetura de sistemas complexos: quando a última pessoa que entende profundamente um subcampo da álgebra se aposenta e ninguém a substitui porque o financiamento acabou e a carreira desapareceu, esse conhecimento provavelmente não será redescoberto tão cedo.

Acabou. E ninguém percebe porque os modelos treinados em seu trabalho ainda apresentam bom desempenho em benchmarks por mais uma década. Penso nisso como um esvaziamento: a capacidade superficial permanece (os modelos ainda podem produzir resultados que parecem especializados), enquanto a capacidade humana subjacente de validar, ampliar ou corrigir essa experiência desaparece silenciosamente.

Por que as rubricas não substituem totalmente

A abordagem atual é a avaliação baseada em rubricas. A IA constitucional, a aprendizagem por reforço a partir do suggestions da IA ​​(RLAIF) e os critérios estruturados que permitem aos modelos pontuar os modelos são técnicas sérias que reduzem significativamente a dependência de avaliadores humanos. Não os estou descartando.

A sua limitação é esta: uma rubrica só pode capturar aquilo que a pessoa que a escreveu sabia medir. Otimize bastante e você obterá um modelo que é muito bom em satisfazer a rubrica. Isso não é a mesma coisa que um modelo que está realmente certo.

As rubricas dimensionam a parte explícita e articulável do julgamento. A parte mais profunda, o instinto, a sensação de que algo está errado, não cabe em uma rubrica. Você não pode escrever porque precisa experimentá-lo primeiro, antes de saber o que escrever.

O que isso significa na prática

Este não é um argumento para desacelerar o desenvolvimento. Os ganhos de capacidade são reais. E é possível que os investigadores encontrem formas de fechar o ciclo de avaliação sem julgamento humano. Talvez os pipelines de dados sintéticos sejam bons o suficiente. Talvez os modelos desenvolvam mecanismos de autocorreção confiáveis ​​que ainda não podemos imaginar.

Mas não temos isso hoje. E entretanto, estamos a desmantelar a infra-estrutura humana que actualmente preenche a lacuna, não como uma decisão deliberada, mas como um subproduto de milhares de decisões racionais. A versão responsável desta transição não é presumir que o problema se resolverá sozinho. Trata-se de tratar a lacuna de avaliação como um problema de investigação aberto com a mesma urgência que atribuímos aos ganhos de capacidade.

O que a IA mais precisa dos humanos é aquilo que menos nos concentramos em preservar. Quer isso seja permanentemente verdadeiro ou temporariamente verdadeiro, o custo de ignorá-lo é o mesmo.

Ahmad Al-Dahle é CTO do Airbnb.

Bem-vindo à comunidade VentureBeat!

Nosso programa de visitor posts é onde especialistas técnicos compartilham insights e fornecem análises profundas, neutras e não adquiridas, sobre IA, infraestrutura de dados, segurança cibernética e outras tecnologias de ponta que moldam o futuro das empresas.

Leia mais do nosso programa de visitor submit – e confira nosso diretrizes se você estiver interessado em contribuir com um artigo de sua autoria!

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui