Início Tecnologia Os desenvolvedores agora podem depurar e avaliar agentes de IA localmente com...

Os desenvolvedores agora podem depurar e avaliar agentes de IA localmente com a ferramenta de código aberto Workshop do Raindrop

30
0

Inicialização de observabilidade IA de gota de chuvanovo código aberto do MIT, licenciado pelo MIT “Oficina“, lançada hoje, oferece aos desenvolvedores algo que eles provavelmente desejavam, talvez inconscientemente, desde que a period da IA ​​de agente começou para valer no ano passado: um depurador native e uma ferramenta de avaliação projetada especificamente para agentes de IA, permitindo que os desenvolvedores vejam todos os vestígios do que seu agente tem feito em um único e leve arquivo de banco de dados de linguagem de consulta estruturada (SQL) (.db)

Ele funciona como um daemon native e UI que transmite cada token, chamada de ferramenta e decisão para um painel native – normalmente hospedado em localhost:5899– no momento em que ocorre. Ao visitar seu host native, os desenvolvedores podem ver tudo o que seu agente estava fazendo – incluindo erros ou erros – e identificar o que deu errado, quando e, idealmente, discernir o porquê. Tudo é armazenado em um único arquivo .db, que ocupa relativamente pouca memória, de acordo com uma mensagem direta X que VentureBeat recebeu de Ben Hylak, cofundador e CTO da Raindrop (e ex-engenheiro da Apple e SpaceX).

Essa telemetria em tempo actual elimina a latência da pesquisa tradicional e aborda uma preocupação crescente dos desenvolvedores em relação à privacidade do envio de rastreamentos locais para servidores externos.

A ferramenta está disponível para macOS, Linux e Home windows. Ele pode ser instalado por meio de um comando shell de uma linha que automatiza o posicionamento binário e a configuração PATH para shells bash, zsh e fish. Para desenvolvedores que preferem construir a partir do código-fonte, o repositório está hospedado no GitHub e utiliza o tempo de execução Bun.

O produto: estabelecendo um ciclo de avaliação de autocura

O recurso de destaque da plataforma é o “loop de avaliação de autocorreção”, que permite que agentes de codificação como Claude Code leiam rastreamentos, escrevam avaliações na base de código e consertem códigos quebrados de forma autônoma.

Numa aplicação prática, se um agente assistente veterinário não fizer as perguntas de acompanhamento necessárias, o Workshop captura a trajetória completa. Claude Code então lê esse rastreamento, escreve uma avaliação específica, identifica o erro lógico no immediate ou código e executa novamente o agente até que todas as asserções sejam aprovadas.

Compatibilidade e integração do ecossistema

O Workshop é compatível com uma ampla variedade de linguagens de programação, incluindo TypeScript, Python, Rust e Go.

Ele se integra a SDKs e estruturas populares, como Vercel AI SDK, OpenAI, Anthropic, LangChain, LlamaIndex e CrewAI. Ele também foi projetado para funcionar perfeitamente com vários agentes de codificação, incluindo Claude Code, Cursor, Devin e OpenCode.

Licenciamento e implicações comunitárias

O Workshop é lançado sob a licença MIT, garantindo que permaneça gratuito e de código aberto para todos os usuários. Este licenciamento permissivo destina-se a promover a contribuição da comunidade e permitir que os utilizadores empresariais mantenham a soberania dos dados.

Hylak observou no X que a ferramenta foi construída para fornecer uma maneira “sensata” de depurar agentes localmente, mudando a forma como sua equipe e os primeiros clientes constroem sistemas autônomos.

Para comemorar o lançamento, o Raindrop ofereceu mercadorias físicas de edição limitada aos usuários que instalaram a ferramenta e executaram um comando de “gotejamento” específico.

fonte

This hidden text is for search engines. Hidden Link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui