A camada de andaime que os desenvolvedores antes precisavam para enviar aplicativos LLM – camadas de indexação, mecanismos de consulta, pipelines de recuperação, loops de agentes cuidadosamente orquestrados – está entrando em colapso. E de acordo com Jerry Liu, cofundador e CEO da LlamaIndex, isso não é um problema. Esse é o ponto.
“Como resultado, há menos necessidade de estruturas para realmente ajudar os usuários a compor esses fluxos de trabalho determinísticos de maneira leve e superficial”, explica Jerry Liu, cofundador e CEO da LlamaIndex, em um novo artigo. Podcast VentureBeat além do piloto.
O contexto está se tornando o fosso
O LlamaIndex de Liu é uma das principais estruturas de geração aumentada de recuperação (RAG) que conecta dados privados, personalizados e específicos de domínio a LLMs. Mas até ele reconhece que estes tipos de enquadramentos estão a tornar-se menos relevantes.
A cada novo lançamento, os modelos demonstram capacidades incrementais para raciocinar sobre “grandes quantidades” de dados não estruturados, e estão ficando melhores nisso do que os humanos, observa ele. Pode-se confiar neles para raciocinar extensivamente, autocorrigir-se e realizar planejamento em várias etapas; Os plug-ins Fashionable Context Protocol (MCP) e Claude Agent Expertise permitem que os modelos descubram e usem ferramentas sem exigir integrações para cada uma delas de forma independente.
Os padrões dos agentes consolidaram-se no que Liu chama de “diagrama de agente gerenciado” — uma camada de aproveitamento combinada com ferramentas, conectores MCP e plug-ins de habilidades, em vez de orquestração personalizada para cada fluxo de trabalho.
Além disso, os agentes de codificação são excelentes na escrita de código, o que significa que os desenvolvedores não precisam depender de bibliotecas extensas. Na verdade, cerca de 95% do código LlamaIndex é gerado por IA. “Os engenheiros não estão realmente escrevendo códigos reais”, disse Liu. “Eles estão todos digitando em linguagem pure.” Isto significa que as camadas entre programadores e não programadores estão em colapso, porque “a nova linguagem de programação é essencialmente o inglês”.
Em vez de codificação guide ou dificuldade para entender a API e a integração de documentos, os desenvolvedores podem simplesmente apontar o Claude Code para isso. “Esse tipo de coisa period extremamente ineficiente ou simplesmente quebraria o agente há três anos”, disse Liu. “É muito mais fácil para as pessoas construir uma recuperação relativamente avançada com primitivos extremamente simples.”
Então, qual é o principal diferencial quando a pilha entra em colapso?
Contexto, diz Liu. Os agentes precisam ser capazes de decifrar formatos de arquivo para extrair as informações corretas. Fornecer maior precisão e análise mais barata torna-se basic, e o LlamaIndex está bem posicionado aqui, afirma ele, devido aos seus desenvolvimentos com processamento de documentos agente through reconhecimento óptico de caracteres (OCR).
“Nós realmente identificamos que existe um conjunto central de dados que foi bloqueado em todos esses contêineres de formato de arquivo”, disse ele. Em última análise, “não importa realmente se você usa o OpenAI Codex ou o Claude Code. O que todos eles precisam é de contexto”.
Mantendo as pilhas modulares
Há uma preocupação crescente com construtores como o Anthropic bloqueando os dados da sessão; à luz disso, Liu enfatiza a importância da modularidade e do agnosticismo. Os construtores não devem apostar em nenhum modelo de fronteira ou construir demais de uma forma que complique demais os componentes da pilha.
A recuperação evoluiu para “agente mais sandbox”, como ele a descreve, e as empresas devem garantir que suas bases de código sejam livres de dívidas tecnológicas e adaptáveis a padrões em mudança. Eles também precisam reconhecer que algumas partes da pilha eventualmente precisarão ser descartadas como algo pure.
“Porque a cada lançamento de novo modelo, há sempre um modelo diferente que é o vencedor”, disse Liu. “Você quer ter certeza de que realmente tem alguma flexibilidade para tirar vantagem disso.”
Ouça o podcast para saber mais sobre:
-
O início do LlamaIndex como um ‘projeto de brinquedo’ com inicialmente apenas cerca de 40% de precisão;
-
Como as empresas de SaaS podem aproveitar fluxos de trabalho complicados que devem ser padronizados e repetíveis para trabalhadores do conhecimento médios;
-
Por que as empresas verticais de IA estão decolando e por que “construir versus comprar” ainda é uma questão muito válida na period dos agentes.
Você também pode ouvir e assinar Além do piloto sobre Spotify, Maçã ou onde quer que você obtenha seus podcasts.











