A reclamação soa acquainted. “Estou desapontado que você esteja trabalhando para incorporar lixo de IA ao web site”, disse uma pessoa irritada, postando anonimamente, em uma mensagem on-line. “Ninguém está pedindo isso – queremos que você melhore o web site e pare de cobrar por novos recursos.”
Só que este não é um usuário comum da Web reclamando sobre a IA ser forçada a entrar em seu aplicativo favorito. Em vez disso, queixam-se dos planos de um fórum de crimes cibernéticos para introduzir uma IA mais generativa. Como milhões de outros, golpistas, golpistas e hackers de baixo nível estão ficando irritados com a invasão da IA em suas vidas e com o aumento de lixo de IA de baixa qualidade postado em suas comunidades on-line.
“As pessoas não gostam disso”, diz Ben Collier, pesquisador de segurança e professor sênior da Universidade de Edimburgo. Como parte de um estudo recente sobre como cibercriminosos de baixo nível estão usando IA, Collier e outros pesquisadores detectaram uma resistência crescente ao uso de IA generativa em fóruns clandestinos de crimes cibernéticos e grupos de hackers.
Durante o increase generativo da IA e os ciclos de hype dos últimos dois anos, algumas pessoas que postam em fóruns de hackers deixaram de ser positivas sobre como a IA pode ajudar a hackear para um maior ceticismo em relação à tecnologia, de acordo com o estudo, que também envolveu pesquisadores da Universidade de Cambridge e da Universidade de Strathclyde.
Os pesquisadores analisaram 97.895 conversas relacionadas à IA em fóruns de crimes cibernéticos desde o lançamento do ChatGPT em 2022 até o last do ano passado. Eles encontraram reclamações sobre pessoas despejando “explicadores pontuais” de conceitos básicos de segurança cibernética, reclamando do número de postagens de baixa qualidade e preocupações sobre as visões gerais de pesquisa de IA do Google, reduzindo o número de visitantes aos fóruns.
Durante décadas, fóruns e mercados de crimes cibernéticos, muitas vezes de origem russa, permitiram que golpistas fizessem negócios juntos. São lugares onde dados roubados podem ser negociados, empregos de hackers são anunciados e fraudadores fazem comentários sobre seus rivais. Embora os golpistas muitas vezes tentem enganar uns aos outros, os fóruns também têm um senso de comunidade. Por exemplo, os usuários constroem reputação de serem confiáveis e os proprietários de fóruns realizam concursos de redação.
“Estes são essencialmente espaços sociais. Eles realmente odeiam que outras pessoas usem [AI] nos fóruns”, diz Collier. Ele diz que a dinâmica social dos grupos pode ser confusa por possíveis cibercriminosos que tentam ganhar uma reputação melhor postando explicadores de hackers gerados por IA. “Acho que muitos deles são um pouco ambivalentes em relação à IA porque isso prejudica sua pretensão de ser uma pessoa qualificada.”
Postagens revisadas pela WIRED no Hack Boards, um espaço autodenominado para aqueles interessados em falar sobre técnicas de hacking e compartilhamento, mostram uma irritação causada por pessoas que criam postagens com IA. “Vejo muitos membros usando IA para criar seus tópicos/postagens e isso me irrita, pois eles nem sequer dedicam tempo para escrever uma ou duas frases simples”, escreveu um postador. Outro foi mais direto: “Pare de postar merdas sobre IA”.
Em vários casos, diz Collier, os usuários de vários fóruns parecem irritados com as postagens de IA, pois desejam fazer amigos. “Se eu quisesse falar com um chatbot de IA, existem muitos websites para fazê-lo… Venho aqui para interação humana”, diz um put up citado na pesquisa.
Desde que o ChatGPT surgiu no last de 2022, tem havido um interesse significativo nas capacidades de hacking de IA e em como a tecnologia pode transformar o crime on-line. Tanto hackers sofisticados quanto aqueles menos capazes têm tentado usar IA em seus ataques. Embora alguns fraudadores organizados tenham impulsionado suas operações com tecnologia de troca facial de IA cada vez mais realista e mensagens de engenharia social traduzidas usando IA, muita atenção tem sido dada às capacidades da IA generativa para escrever códigos maliciosos e descobrir vulnerabilidades.











