Boonchai Wedmakawand | Momento | Imagens Getty
do Google O Grupo de Inteligência de Ameaças disse em um relatório na segunda-feira que frustrou um esforço dos hackers para usar modelos de inteligência synthetic para “planejar uma operação de exploração de vulnerabilidade em massa”.
O grupo, conhecido pela sigla GTIG, disse ter “alta confiança” de que gravou hackers usando um modelo de IA para encontrar e explorar uma vulnerabilidade de dia zero, ou falha de software program desconhecida pelos desenvolvedores, criando uma maneira de contornar a autenticação de dois fatores.
“O autor da ameaça criminosa planejou usá-lo em um evento de exploração em massa, mas nossa contradescoberta proativa pode ter impedido seu uso”, escreveu o Google no put up, sem divulgar o nome do grupo de hackers. O Google disse que não acredita que seu modelo native Gemini tenha sido usado.
As descobertas sublinham como os hackers estão a utilizar ferramentas de IA disponíveis, como o OpenClaw, para explorar falhas de software program de formas que podem ser particularmente prejudiciais para empresas, agências governamentais e outras organizações, mesmo quando as empresas de segurança cibernética injetam milhares de milhões de dólares no reforço das suas defesas.
Em abril, a Anthropic atrasou o lançamento do seu modelo Mythos, alegando preocupações de que criminosos e adversários pudessem usar a ferramenta para identificar e explorar vulnerabilidades de software program com décadas de existência. As preocupações provocaram ondas de choque em toda a indústria e levaram a reuniões na Casa Branca com líderes tecnológicos e empresariais. Desde então, a Antthropic lançou o modelo para um selecione o grupo de testadoresincluindo Maçã, CrowdStrike, Microsoft e Redes Palo Alto.
Na semana passada, OpenAI anunciado que o GPT-5.5-Cyber, uma variação de seu modelo mais recente, está sendo lançado em uma capacidade limitada de visualização para equipes de segurança cibernética avaliadas.
No relatório de segunda-feira, o Google destacou vários exemplos de como os hackers já estão usando ferramentas como o OpenClaw para encontrar vulnerabilidades, lançar ataques cibernéticos e desenvolver malware. Grupos ligados à China e à Coreia do Norte “demonstraram interesse significativo em capitalizar a IA para descoberta de vulnerabilidades”, afirma o relatório.
ASSISTIR: Chega a period da orquestração de ataques cibernéticos habilitada para IA


