A empresa de tecnologia foi colocada na lista negra por resistir à exigência do Departamento de Guerra dos EUA de suspender os limites à vigilância e às armas autônomas
O desenvolvedor de IA Anthropic entrou com uma ação judicial contra o Pentágono e o secretário de Guerra dos EUA, Pete Hegseth, contestando a decisão do governo Trump de designar a empresa como um risco à segurança nacional e colocar sua tecnologia na lista negra do governo federal.
A queixa, apresentada segunda-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, argumenta que a administração excedeu a sua autoridade authorized e retaliou a empresa por se recusar a remover as salvaguardas que regem a forma como os seus sistemas de IA podem ser utilizados pelos militares.
A Anthropic pede ao tribunal que declare ilegais as ações do governo e bloqueie as medidas, que, segundo ela, ameaçam causar “irreparável” prejudicar um dos países do mundo “de crescimento mais rápido” e mais “responsável” Empresas de IA.
A batalha authorized decorre da alegada recusa da empresa em suspender as restrições que impedem a utilização dos seus modelos para vigilância doméstica em massa ou para armas totalmente autónomas.
Em 27 de fevereiro, o presidente dos EUA, Donald Trump, ordenou que as agências federais parassem de usar a tecnologia da Anthropic, acusando-a de ser administrada por “empregos malucos de esquerda”. Brand depois, Hegseth designou formalmente a empresa como “risco da cadeia de abastecimento para a segurança nacional”, um rótulo normalmente reservado a empresas ligadas a adversários estrangeiros.
A administração argumentou que a recusa da empresa em modificar os seus modelos para que possam ser utilizados “todos os fins militares legais” representa riscos operacionais ao dar a um contratante privado influência sobre a tomada de decisões no campo de batalha. O processo da Antrópico contesta essa caracterização, dizendo que as ações do governo equivalem a uma retaliação punitiva por um desacordo político sobre a governança da IA.

A empresa period anteriormente a única desenvolvedora de IA autorizada a implantar grandes modelos de linguagem em redes classificadas do Pentágono, onde seu sistema Claude apoiava análise de inteligência e planejamento operacional sob contratos no valor de até US$ 200 milhões.
Claude também teria desempenhado um papel basic no planeamento e condução do ataque contra o presidente venezuelano, Nicolas Maduro – bem como nos ataques EUA-Israelenses ao Irão, lançados poucas horas depois de Trump ter colocado a empresa na lista negra.
Sob ordem do governo, as agências federais foram instruídas a eliminar gradualmente a tecnologia dentro de seis meses, durante a transição para fornecedores alternativos de IA. A Anthropic disse que a dependência contínua de seus sistemas durante esse período mina a afirmação do governo de que a empresa representa uma ameaça imediata à segurança.
Você pode compartilhar esta história nas redes sociais:












