NOVOAgora você pode ouvir os artigos da Fox Information!
Um mês depois de o presidente Donald Trump ter ordenado a suspensão da tecnologia da empresa de inteligência synthetic Anthropic, em todo o governo, após um confronto com o Pentágono, o CEO da empresa está de volta à Casa Branca para conversações de alto nível – enquanto as autoridades reconsideram se um sistema que eles marginalizaram por causa da segurança nacional e das preocupações políticas pode ser demasiado importante para ser ignorado.
Uma fonte familiarizada com a reunião disse à Fox Information que a chefe de gabinete da Casa Branca, Susie Wiles, se encontrou com o CEO da Anthropic, Dario Amodei, na sexta-feira.
O novo modelo de inteligência synthetic da Anthropic, Mythos Preview, é considerado tão avançado que a empresa restringiu seu lançamento, limitando o acesso a um pequeno grupo de parceiros devido a preocupações com potencial uso indevido.
A reunião assinala uma rápida reversão dentro da administração Trump, à medida que as autoridades avaliam se um sistema anteriormente sinalizado como um risco à segurança nacional também poderia ser crítico para a defesa da infra-estrutura dos EUA – expondo uma tensão interna crescente sobre como lidar com poderosas ferramentas de IA com potencial tanto defensivo como ofensivo.
As negociações ocorrem apesar de um recente conflito dentro da administração Trump, enquanto as autoridades reconsideram uma empresa que o Pentágono sinalizou como um risco para a cadeia de abastecimento. Os seus laços com antigos funcionários de Biden e as críticas anteriores a Trump por parte do seu CEO acrescentaram uma dimensão política ao debate sobre se a sua tecnologia deveria regressar ao uso governamental.
O cofundador e CEO da Anthropic, Dario Amodei, fala no painel “Como a IA transformará os negócios nos próximos 18 meses” durante o INBOUND 2025, desenvolvido pela HubSpot no Moscone Middle em 4 de setembro de 2025 em São Francisco, Califórnia (Likelihood Yeh/Getty Photos para HubSpot))
PERGUNTAS MADURO RAID DESENVOLVEM A REVISÃO DO PENTÁGONO DA PRINCIPAL EMPRESA DE IA COMO POTENCIAL ‘RISCO DA CADEIA DE FORNECIMENTO’
Esse potencial e os riscos que o acompanham já provocaram tensões dentro do governo dos EUA.
Conflito no Pentágono, luta authorized e reversão colocam a Anthropic de volta em jogo
A reunião ocorre após um rompimento acentuado entre a Antrópico e o Pentágono no início de 2026.
O secretário da Defesa, Pete Hegseth, designou a empresa como um “risco da cadeia de abastecimento” para a segurança nacional, eliminando-a efectivamente dos sistemas militares e impedindo os empreiteiros de utilizarem a sua tecnologia.
A Anthropic está agora contestando a designação em tribunal, depois de apresentar vários processos contra o Pentágono e outras agências federais, argumentando que o rótulo de “risco da cadeia de abastecimento” é ilegal e retaliatório.
A designação, que proíbe efectivamente os empreiteiros de utilizarem a tecnologia da Anthropic e foi comparada a medidas normalmente reservadas a adversários estrangeiros, já enfrentou decisões contraditórias no tribunal federal, com um juiz a bloquear temporariamente partes da política enquanto um tribunal de recurso se recusou a suspender a sua aplicação. A luta authorized continua, deixando empreiteiros e agências navegando na incerteza sobre se e como os sistemas da Anthropic podem ser usados.
A mudança ocorreu após uma disputa sobre como o Pentágono poderia usar a IA da Antrópica.
A empresa recusou-se a conceder autorização ilimitada para “todos os fins legais”, insistindo em vez disso que os seus sistemas não fossem utilizados para vigilância doméstica em massa ou para armas totalmente autónomas. Embora os responsáveis do Pentágono tenham afirmado que não dependem da IA para nenhum dos fins, rejeitaram ser limitados pelas restrições de uma empresa privada.
Trump então instruiu as agências federais a pararem totalmente de usar os modelos da Antrópico, escalando o deadlock além do Departamento de Defesa para uma paralisação em todo o governo.
Agora, poucas semanas depois, a empresa está de volta às negociações de alto nível com a Casa Branca, enquanto as autoridades avaliam se o seu novo sistema Mythos – apesar da proibição anterior – poderia alterar o equilíbrio entre defesa e ataque cibernéticos.
Laços políticos e críticas anteriores podem complicar as negociações na Casa Branca
A disputa também assumiu uma dimensão política.
Amodei já havia chamado a atenção por suas críticas a Trump, a certa altura comparando-o a um “senhor da guerra feudal” em uma postagem pré-eleitoral no Fb, de acordo com uma reportagem do Wall Road Journal.
Numa mensagem interna publicada na plataforma Slack da Anthropic e posteriormente divulgada para The Data, Amodei sugeriu que a disputa da administração Trump com a empresa foi motivada em parte pela sua recusa em oferecer o que ele descreveu como “elogios ao estilo ditador”.
A mensagem, escrita durante uma rápida escalada de tensões no início de março, foi posteriormente citada pelo Wall Road Journal e outros meios de comunicação. Posteriormente, Amodei pediu desculpas pelo tom, dizendo que a postagem não refletia suas opiniões ponderadas.
TRIBUNAL FEDERAL DE Apelações REJEITA PROPOSTA ANTRÓPICA PARA BLOQUEAR LISTA NEGRA DO PENTÁGONO EM DISPUTA DE IA
Quando questionado sobre a governança, contratações e laços políticos mais amplos da Anthropic, um funcionário da Casa Branca disse que o governo “continua a se envolver proativamente com o governo e a indústria para proteger os Estados Unidos e os americanos”, incluindo “trabalhar com laboratórios de IA de fronteira para garantir que seus modelos ajudem a proteger vulnerabilidades críticas de software program”.
O funcionário acrescentou que “qualquer nova tecnologia que possa ser potencialmente usada ou implantada pelo governo federal requer um período técnico de avaliação de fidelidade e segurança” e disse que “o esforço coletivo de todos os envolvidos acabará por beneficiar a indústria e o nosso país, como um todo”.

Páginas do website da Anthropic e os logotipos da empresa são exibidos na tela de um computador em Nova York na quinta-feira, 26 de fevereiro de 2026. (Patrick Sison/Foto AP)
Além da disputa imediata, os laços mais amplos da empresa com Washington também chamaram a atenção.
A estrutura de governança da Anthropic também chamou a atenção à medida que o governo avalia um envolvimento mais próximo. A empresa é supervisionada em parte por um “Lengthy-Time period Profit Belief” independente, um mecanismo incomum projetado para dar influência às partes interessadas não financeiras sobre as decisões corporativas.
O belief detém ações de voto especiais que lhe permitem nomear e, eventualmente, controlar a maioria do conselho da empresa, com membros oriundos de segurança nacional, políticas públicas e desenvolvimento international.
Os atuais curadores incluem figuras como o CEO da Clinton Well being Entry Initiative, Neil Buddy Shah, o presidente do Carnegie Endowment, Mariano-Florentino Cuéllar, e o CEO do Middle for a New American Safety, Richard Fontaine – uma mistura de líderes políticos e de segurança nacional que sublinha os laços profundos da empresa com Washington e os círculos políticos globais.
Os apoiadores da Anthropic também a colocaram no centro de redes sobrepostas de tecnologia, políticas e políticas.
O financiamento inicial para a empresa incluiu investimentos de figuras como o cofundador do Fb, Dustin Moskovitz, e o ex-CEO do Google, Eric Schmidt, ambos doadores democratas de longa knowledge, e um grande investimento inicial da FTX de Sam Bankman-Fried.
Ao mesmo tempo, a empresa atraiu desde então uma vasta gama de grandes investidores institucionais — incluindo Amazon, Google e Microsoft — refletindo o seu papel crescente na corrida international à IA e complicando os esforços para caracterizá-la segundo linhas puramente políticas.
A empresa também contratou vários funcionários da administração Biden para funções políticas importantes, incorporando ainda mais a Anthropic no ecossistema político de IA de Washington. Entre eles está Tarun Chhabra, um ex-funcionário do Conselho de Segurança Nacional que agora lidera o trabalho de política de segurança nacional da empresa, bem como outros conselheiros e funcionários com experiência na definição de estratégias federais de IA e tecnologia.
A Anthropic também tem procurado construir laços além das linhas partidárias à medida que expande sua presença em Washington.
A empresa emprega pessoal político com formação republicana, incluindo o analista legislativo Benjamin Merkel e a lobista Mary Croghan, e em fevereiro adicionou Chris Liddell – um ex-vice-chefe de gabinete da Casa Branca no governo de Trump – ao seu conselho. Contribuiu com 20 milhões de dólares para a Public First Motion, um grupo bipartidário que apoia candidatos de ambos os partidos que apoiam a regulamentação da IA.

A decisão de um juiz federal de impedir a administração Trump de banir a empresa de IA Anthropic do uso do Departamento de Guerra está desencadeando um debate sobre se a decisão empurra os tribunais para a tomada de decisões de segurança nacional. (Samyukta Lakshmi/Bloomberg by way of Getty Photos; Eugene Hoshiko/Pool/Reuters)
A empresa também enfrentou críticas dentro da administração Trump.
O conselheiro de IA da Casa Branca, David Sacks, acusou a Anthropic de seguir uma estratégia de “captura regulatória”, argumentando que a empresa está usando preocupações sobre a segurança da IA para impor regras que poderiam beneficiar sua própria posição e, ao mesmo tempo, desacelerar os concorrentes.
A Anthropic rejeitou essas afirmações, dizendo que a sua abordagem reflete preocupações genuínas sobre os riscos representados pelos sistemas avançados de IA.
A Anthropic se recusou a comentar a reunião na Casa Branca e questões sobre seus laços políticos.
JUIZ CONGELA MOVIMENTO DE ADMIN DE TRUMP CONTRA A EMPRESA DE IA, ALIMENTANDO A BATALHA PELA AUTORIDADE DE SEGURANÇA
Novo sistema de IA pode remodelar a guerra cibernética, levantando alarmes dentro do governo dos EUA
A nova tecnologia poderia ajudar os desenvolvedores a identificar e corrigir falhas de segurança de longa knowledge, mas também poderia dar aos hackers uma nova ferramenta poderosa para atingir empresas e sistemas governamentais dos EUA.
“Dada a taxa de progresso da IA, não demorará muito para que tais capacidades proliferem, potencialmente além dos atores que estão comprometidos em implantá-las com segurança”, disse a Anthropic em seu anúncio. “As consequências – para as economias, a segurança pública e a segurança nacional – podem ser graves.”
A Anthropic não divulgou o Mythos publicamente, em vez disso limitou o acesso por meio de um programa chamado Projeto Glasswing, onde um grupo seleto de empresas usa o modelo para verificar vulnerabilidades em sistemas críticos.

Páginas do website da Anthropic e os logotipos da empresa são exibidos na tela de um computador em Nova York na quinta-feira, 26 de fevereiro de 2026. (Patrick Sison/Foto AP)
CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS
A empresa afirma que o sistema já descobriu milhares de falhas anteriormente desconhecidas – algumas com décadas de existência – sublinhando tanto o seu valor defensivo como o risco de poder ser usado para acelerar ataques cibernéticos se a tecnologia se espalhar.
Edward Lawrence, da Fox Enterprise, contribuiu para este relatório.








