Início Tecnologia O Exército dos EUA está construindo seu próprio chatbot para combate

O Exército dos EUA está construindo seu próprio chatbot para combate

11
0

O O Exército dos EUA está desenvolvendo modelos de IA treinados em dados de missões reais, com o objetivo de implantar um chatbot especificamente para soldados.

“Aprendemos todas essas lições em missões como a Guerra Ucrânia-Rússia e a Operação Epic Fury”, disse Alex Miller, diretor de tecnologia do Exército, em entrevista à WIRED. “Há uma enorme quantidade de conhecimento disponível.”

Miller mostrou à WIRED um protótipo do sistema, chamado Victor, que combina um fórum semelhante ao Reddit com um chatbot chamado VictorBot para ajudar as tropas a obter informações úteis, como a melhor maneira de configurar sistemas de guerra eletromagnética para uma missão específica. Quando um soldado pergunta como configurar seu {hardware}, o VictorBot gera uma resposta e aponta para postagens e comentários relevantes de outros membros do serviço. “A guerra eletromagnética é um tema muito difícil”, diz Miller. Victor, acrescenta ele, “pode gerar uma resposta e citar todas as lições aprendidas com [different] unidades.”

O Pentágono intensificou os seus esforços para incorporar a IA em sistemas militares nos últimos dois anos, mas Victor é um raro exemplo de um militar que constrói IA para si próprio. O projeto mostra até que ponto os militares dos EUA estão interessados ​​em dominar os detalhes básicos da IA ​​— e como a tecnologia pode estar preparada para transformar a vida quotidiana de muitas tropas.

Miller diz que o Exército está trabalhando com um fornecedor terceirizado que executará e ajustará os modelos de IA que alimentam Victor. Ele se recusou a nomear a empresa específica porque o contrato ainda não foi anunciado. Ele afirma que mais de 500 repositórios de dados foram inseridos no sistema e observa que Victor buscará reduzir o potencial de erros de forma semelhante aos chatbots comerciais, citando fontes factuais.

Os esforços para integrar a IA em sistemas militares aceleraram após a introdução do ChatGPT em 2022. Mais recentemente, a tecnologia da Anthropic desempenhou um papel proeminente no planeamento de operações no Irão através de um sistema alimentado pela Palantir.

No entanto, à medida que estes sistemas se tornaram mais capazes, surgiram divergências sobre como a IA deveria ser implementada. No início deste ano, a Anthropic enfrentou o Pentágono, argumentando que a sua tecnologia não deveria ser usada para alimentar armas autónomas ou vigiar cidadãos americanos.

Mesmos erros

Victor está sendo desenvolvido dentro do Comando de Armas Combinadas (CAC). O Tenente-Coronel Jon Nielsen, que supervisiona o trabalho do CAC em Victor, diz que não é incomum que brigadas diferentes cometam os mesmos erros em missões diferentes. O objetivo de Victor, acrescenta ele, é eventualmente tornar o sistema multimodal para que os soldados possam alimentar imagens ou vídeos e obter insights. “Victor será uma das únicas fontes com acesso a informações confiáveis ​​do Exército”, afirma Nielsen.

Lauren Kahn, analista de pesquisa sênior do Centro de Segurança e Tecnologia Emergente de Georgetown e ex-conselheira política do Pentágono, diz que o projeto Victor destaca o potencial da IA ​​para automatizar muitas tarefas de back-office nada atraentes dentro do Departamento de Defesa. No last do ano passado, o departamento introduziu o GenAI.mil, uma iniciativa que visa estimular uma maior adoção da IA ​​entre os funcionários do DOD.

Se Victor for um sucesso, Kahn acredita que o Exército poderá eventualmente contratar uma grande empresa de IA para aprimorar as capacidades do sistema. “Os grandes laboratórios terão obviamente uma vantagem comparativa” em termos de construção e implementação de IA de ponta, diz ela.

Falhas da Intel

A IA poderia introduzir novos tipos de problemas para os militares, diz Paul Scharre, presidente executivo do Centro para a Nova Segurança Americana e antigo Ranger do Exército dos EUA. Scharre diz que a tendência dos modelos de IA serem bajuladores pode ser particularmente problemática. “Eu poderia imaginar situações em que isso seria particularmente preocupante num contexto de análise de inteligência”, explica ele.

Scharre acrescenta que a adoção da IA ​​pode tornar-se mais complicada à medida que os sistemas avançam de chatbots para agentes capazes de utilizar software program e redes de computadores. “A Agentic AI levanta todo um novo conjunto de desafios em torno da segurança”, observa ele.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui