Início Tecnologia O Google diz que a IA está sendo abusada em escala industrial...

O Google diz que a IA está sendo abusada em escala industrial para ataques cibernéticos e acabou de frustrar um

16
0

Durante anos, especialistas em segurança alertaram que a IA acabaria por dar aos hackers uma nova vantagem perigosa. Esse momento chegou.

O Grupo de Inteligência de Ameaças do Google publicou um relatório confirmando que um grupo criminoso de hackers usou um modelo de IA para descobrir uma vulnerabilidade de dia zero e quase desencadeou um ataque cibernético em massa. O Google diz que detectou e interrompeu o ataque antes que os hackers pudessem implantá-lo em grande escala.

O que exatamente aconteceu e quão sério foi?

A exploração teve como alvo uma fashionable ferramenta de administração de sistema baseada na Net de código aberto, do tipo que as empresas usam para gerenciar remotamente servidores, contas de funcionários e configurações de segurança.

Se não tivesse sido detectado, teria permitido que os hackers ignorassem a autenticação de dois fatores, que geralmente é a última linha de defesa para proteger as contas.

Os invasores planejaram implantá-lo em um evento de exploração em massa visando diversas organizações ao mesmo tempo. O Google alertou o desenvolvedor da ferramenta a tempo de emitir um patch antes que qualquer dano fosse causado.

A empresa se recusou a nomear o grupo de hackers, o software program específico visado ou qual modelo de IA foi usado, mas confirmou que não period o Gemini do Google.

Segundo o Google, grupos ligados à China e à Coreia do Norte também demonstraram interesse significativo em usar ferramentas de IA como o OpenClaw para descoberta de vulnerabilidades.

A IA está se tornando o maior ponto fraco da segurança cibernética?

O ataque ao Google é alarmante, mas está longe de ser isolado. Pesquisadores da Georgia Tech descobriram recentemente o VillainNet, um backdoor oculto que se incorpora à IA do carro autônomo e funciona 99% do tempo quando acionado.

Enquanto isso, uma equipe de pesquisa coreana mostrou que os modelos de IA podem ser submetidos a engenharia reversa remotamente usando uma pequena antena através das paredes, sem necessidade de acesso ao sistema. Recentemente, um grupo de usuários do Discord contornou os controles de acesso para acessar o modelo Mythos restrito da Anthropic por meio de um ambiente de fornecedor terceirizado.

No lado da defesa, uma disciplina crescente chamada pentesting de IA está surgindo para testar como os modelos de linguagem se comportam quando expostos a informações adversárias, mas o campo ainda está em seus estágios iniciais.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui