Para a empresa moderna, o espaço de trabalho digital corre o risco de cair no “teatro de coordenação”, no qual as equipas passam mais tempo a discutir o trabalho do que a executá-lo.
Embora ferramentas tradicionais como Slack ou Groups sejam excelentes na comunicação rápida, elas falharam estruturalmente em servir como uma base confiável para agentes de IA, de modo que um tópico do Hacker News se tornou viral em fevereiro de 2026 convocando a OpenAI para construir sua própria versão do Slack para ajudar a capacitar os agentes de IA, acumulando 327 comentários.
Isso ocorre porque os agentes muitas vezes não têm o contexto em tempo actual e o acesso seguro aos dados necessários para serem verdadeiramente úteis, muitas vezes resultando em “alucinações” ou reexplicações repetitivas das convenções da base de código.
PromptQLum spin-off do unicórnio GraphQL Hasura, está abordando isso mudando de uma ferramenta de dados de IA para um espaço de trabalho abrangente e nativo de IA, projetado para transformar interações casuais e regulares da equipe em uma memória persistente e segura para fluxos de trabalho de agentes – garantindo que essas conversas não sejam simplesmente deixadas de lado ou que os usuários e agentes tenham que tentar encontrá-las novamente mais tarde, mas sim, destiladas e armazenadas como dados proprietários acionáveis em um formato organizado – um wiki interno – no qual a empresa pode confiar no futuro, para sempre, aprovado e editado manualmente conforme necessário.
Think about dois colegas enviando mensagens sobre um bug que precisa ser corrigido – em vez de atribuí-lo manualmente a um engenheiro ou agente, sua plataforma de mensagens automaticamente o marca, atribui e documenta tudo no wiki com um clique. Agora faça isso para cada problema ou tópico de discussão que ocorre em sua empresa e você terá uma ideia do que o PromptQL está tentando. A ideia é simples, mas poderosa: transformar a conversa que necessariamente precede o trabalho em uma tarefa actual que é iniciada automaticamente pelo seu próprio sistema de mensagens.
“Não conversamos mais sobre trabalho”, disse o CEO Tanmai Gopal em uma recente entrevista por videochamada ao VentureBeat. “Você realmente tem conversas que fazer o trabalhar.”
Originalmente posicionada como analista de dados de IA, a empresa – um spin-off do unicórnio GraphQL Hasura – está se transformando em um espaço de trabalho nativo de IA em grande escala.
Não é apenas “Slack com chatbot”; é uma rearquitetura basic de como as equipes interagem com seus dados, suas ferramentas e entre si.
“O PromptQL é esse burro de carga em segundo plano, esse estagiário 24 horas por dia, 7 dias por semana, que está continuamente realizando o trabalho actual – olhando o código, confirmando hipóteses, indo a vários lugares, realmente fazendo o trabalho”, disse Gopal.
Tecnologia: mensagens que se transformam automaticamente em um mecanismo de contexto compartilhado e continuamente atualizado
A alma técnica do PromptQL é a sua Wiki Compartilhado. Os LLMs tradicionais sofrem de um problema de “memória”; eles esquecem interações anteriores ou têm alucinações com base em dados de treinamento desatualizados.
PromptQL resolve isso capturando o “contexto compartilhado” enquanto as equipes trabalham. Quando um engenheiro corrige um bug ou um profissional de advertising outline um “lead reciclado”, eles não estão apenas digitando no vazio. Eles estão ensinando uma Wikipédia interna e viva. Este wiki não requer “sprints de documentação” ou atualizações manuais de arquivos YAML; ele acumula contexto organicamente.
“Ao longo de cada conversa, você ensina PromptQL, e isso vai para este wiki que está sendo desenvolvido ao longo do tempo. Este é o conhecimento de toda a nossa empresa gradualmente se unindo.”
-
Interconectividade: Assim como as células em uma placa de Petri, pequenas “ilhas” de conhecimento – digamos, uma integração do Salesforce – eventualmente se conectam a outras ilhas, como os dados de uso de produtos no Snowflake.
-
Humano no Loop: Para evitar que a IA aprenda “lixo” (como um lembrete sobre uma consulta médica em 2024), os humanos devem explicitamente “Adicionar ao Wiki” para canonizar um fato.
-
A camada de dados virtuais: Ao contrário das plataformas tradicionais que exigem replicação de dados, o PromptQL usa um camada SQL digital. Ele consulta seus dados em bancos de dados (Snowflake, Clickhouse, Postgres) e ferramentas SaaS (Stripe, Zendesk, HubSpot), garantindo que nada seja extraído ou armazenado em cache.
PromptQL foi projetado para ser uma camada de orquestração altamente integrável que oferece suporte aos principais provedores de modelos de IA e a um vasto ecossistema de ferramentas empresariais existentes.
-
Suporte ao modelo de IA: A plataforma permite aos usuários delegar tarefas a agentes de codificação específicos, como Código Claude e Cursorou use agentes personalizados criados para necessidades internas específicas.
-
Compatibilidade de fluxo de trabalho: O sistema foi desenvolvido para herdar o contexto das ferramentas de equipe existentes, permitindo que os agentes de IA entendam convenções de base de código ou padrões de implantação de sua infraestrutura existente sem reexplicação guide
Do conversar ao fazer
A interface PromptQL parece acquainted – threads, canais e menções – mas a funcionalidade é transformadora. Em uma demonstração, um engenheiro identifica uma verificação com falha em um #eng-bugs canal.
Em vez de marcar um SRE humano, eles delegam ao Claude Code through PromptQL. O agente não olha apenas o código; ele herda o contexto compartilhado da equipe.
Ele sabe, por exemplo, que “os pagamentos da UE foram transferidos para Adyen em 15 de janeiro” porque esse fato foi adicionado à wiki semanas antes.
Em poucos minutos, a IA identifica uma incompatibilidade de moeda, corrige, abre um PR e atualiza o wiki para referência futura. Essa abordagem de IA “multijogador” é o que diferencia a plataforma.
Ele permite que um gerente não técnico pergunte: “Quais contas têm faturamento crescente do Stripe, mas uso estável do Mixpanel?” e receba instantaneamente uma tabela unida de dados extraídos de duas fontes diferentes. O usuário pode então agendar um Slack DM recorrente desses resultados com um único comando de acompanhamento.
Além disso, os usuários nem precisam pensar na integridade ou limpeza de seus dados – o PromptQL cuida disso para eles: “Conecte todos os dados em qualquer estado de merda e deixe o contexto compartilhado crescer dinamicamente à medida que você os usa”, disse Gopal.
Altamente seguro
Para empresas da Fortune 500, como McDonald’s e Cisco, “basta conectar seus dados” é uma frase assustadora. PromptQL resolve isso com controle de acesso refinado
.O sistema impõe políticas baseadas em atributos no nível da infraestrutura. Se um gerente de operações regional solicitar taxas de fornecedores em todas as regiões, a IA redigirá colunas ou linhas que eles não estão autorizados a ver, mesmo que o LLM “saiba” a resposta. Além disso, qualquer ação de alto risco – como atualizar 38 standing de pagamento no Netsuite – requer uma aprovação humana de “Aprovar/Negar” antes da execução.
Licenciamento e preços
Afastando-se do establishment do SaaS “por assento”, o PromptQL é inteiramente baseado no consumo.
-
Preço: A empresa utiliza “Unidades de Linguagem Operacional” (OLUs).
-
Filosofia: Gopal argumenta que a cobrança por assento penaliza as empresas por integrarem toda a sua equipe. Ao cobrar pelo valor criado (o OLU), o PromptQL incentiva os usuários a conectar “todos e tudo”.
-
Armazenamento Empresarial: Embora equipes menores usem contas dedicadas, os clientes corporativos obtêm uma VPC dedicada. Quaisquer dados que a IA “salva” (como uma lista de tarefas personalizada) são armazenados no bucket S3 do próprio cliente usando o formato Iceberg, garantindo complete soberania dos dados.
“Filosoficamente, queremos que você conecte tudo e todos [to PromptQL]então não penalizamos isso”, disse Gopal. “Nós apenas fixamos o preço com base no consumo.”
Por que isso é importante agora para as empresas
Então, o PromptQL é um assassino do Groups ou do Slack? De acordo com Gopal, a resposta é sim: “Isso é o que aconteceu conosco. Fechamos totalmente nosso Slack interno para comunicações internas”, disse ele.
O lançamento ocorre em um ponto essential para a indústria. As empresas estão percebendo que “conversar com um PDF” não é suficiente. Eles precisam de uma IA que possa agir, mas não podem arcar com os riscos de segurança de agentes “não supervisionados”.
Ao construir um espaço de trabalho que prioriza o contexto compartilhado e a verificação humana, o PromptQL oferece um meio-termo: uma IA que aprende como um colega de equipe e executa como um estagiário, ao mesmo tempo em que permanece dentro das grades de segurança da empresa.
Para empresas focadas em fazer a IA funcionar em escala, o PromptQL aborda o “como” crítico de implementação, fornecendo a orquestração e a camada operacional necessária para implantar sistemas de agente.
Ao substituir o “teatro de coordenação” das ferramentas de chat tradicionais por um espaço de trabalho onde os agentes de IA têm as mesmas permissões e contexto que os colegas de equipe humanos, permite uma coordenação perfeita entre vários agentes e o roteamento de tarefas. Isso permite que os tomadores de decisão vão além da simples seleção de modelos para uma realidade onde agentes – como Claude Code – usam contexto de equipe compartilhado para executar fluxos de trabalho complexos, como correção de bugs de produção ou atualização de registros de CRM, diretamente em threads ativos.
Do ponto de vista da infraestrutura de dados, a plataforma simplifica o gerenciamento de pipelines em tempo actual e arquiteturas prontas para RAG, utilizando uma camada SQL digital que consulta dados “no native”. Isso elimina a necessidade de preparação de dados e sprints de replicação caros e demorados em centenas de milhares de tabelas em bancos de dados como Snowflake ou Postgres.
Além disso, o “Wiki Compartilhado” do sistema serve como uma alternativa superior aos bancos de dados vetoriais padrão ou à memória baseada em prompts, capturando o conhecimento tribal organicamente e criando um armazenamento vivo de metadados que informa cada interação de IA com raciocínio específico da empresa.
Por fim, o PromptQL aborda a governança de segurança necessária para pilhas modernas de IA, aplicando controle de acesso refinado e baseado em atributos e permissões baseadas em funções.
Por meio da verificação humana, ele garante que ações de alto risco e mutações de dados sejam mantidas para aprovação explícita, protegendo contra o uso indevido do modelo e o vazamento não autorizado de dados.
Embora não ajude em tarefas de infraestrutura física, como otimização de cluster de GPU ou aquisição de {hardware}, ele fornece as proteções de software program e a auditabilidade necessárias para garantir que os fluxos de trabalho de agentes permaneçam em conformidade com padrões empresariais como SOC 2, HIPAA e GDPR.











