“Netanyahu é actual ou IA?” uma manchete na web apontava para um vídeo que supostamente mostrava o primeiro-ministro israelense com seis dedos.
Mas o clipe period actual.
Cresceram as especulações on-line de que Netanyahu poderia estar morto ou ferido num ataque iraniano e que Israel estava a encobrir o facto com um duplo gerado pela inteligência synthetic.
“A última vez que verifiquei, os humanos geralmente não têm 6 dedos… a IA tem”, disse um submit no X, obtendo quase cinco milhões de visualizações. “Netanyahu não existe mais?”
Os pesquisadores forenses digitais foram rápidos em explicar o dedo “additional”: um truque de luz que fazia parte da palma da mão parecer um dedo adicional.
Mas essa mensagem foi em grande parte abafada pelo alvoroço on-line. Também pouco importava que geradores visuais avançados de IA, agora capazes de produzir deepfakes de aparência estranhamente actual em segundos, tenham apagado em grande parte a falha outrora reveladora de dedos extras.
Então, como provar que o que é actual é actual quando a linha entre a realidade e a invenção se tornou tão indistinta no nevoeiro da guerra na Ásia Ocidental?
Poucos dias depois, Netanyahu postou outro vídeo: um clipe de prova de vida em uma cafeteria.
Ele ergueu as duas mãos como se desafiasse os céticos a contar os dedos.
Mas em vez de acabar com as especulações, o vídeo alimentou uma nova onda de teorias infundadas.
“Mais IA”, disse uma postagem viral do Threads, questionando por que sua xícara permaneceu cheia após um grande gole.
A suspeita reinou mesmo depois de Netanyahu ter publicado um terceiro vídeo, este com o embaixador dos EUA em Israel, Mike Huckabee.
Alguns detetives on-line ampliaram as orelhas de Netanyahu, alegando que sua forma e tamanho não correspondiam às imagens mais antigas.
A rede world da AFP produziu mais de 500 desmentidos de informações falsas em vários idiomas desde o início do conflito, uma taxa nunca antes vista numa crise deste tipo. Entre um quarto e um quinto deles usaram IA.
A invasão russa da Ucrânia, a guerra Israel-Gaza e o conflito entre a Índia e o Paquistão desencadearam ondas de conteúdo gerado por IA.
O que diferencia a guerra na Ásia Ocidental é o grande quantity e realismo das imagens de IA produzidas por ferramentas avançadas que são baratas e capazes de eliminar muitos dos antigos sinais de manipulação, dizem os investigadores.
As plataformas tecnológicas estão agora saturadas com o que é amplamente apelidado de “resíduos de IA”.
O resultado é uma crise de confiança cada vez mais profunda, à medida que as fabricações de IA hiper-realistas competem pela atenção, e muitas vezes abafam, imagens e vídeos autênticos.
“Acho que neste momento todos precisamos começar a tratar fotos, vídeos e áudio da mesma forma que boatos”, disse à AFP Thomas Nowotny, que lidera um grupo de pesquisa em IA na Universidade de Sussex, no Reino Unido.
A questão para Constance de Saint Laurent, professora da Universidade Maynooth, na Irlanda, “não é tanto que as pessoas acreditem na” desinformação, é “que vejam notícias reais e já não confiem nelas”.
O quantity de falsificações ultrapassou largamente a capacidade de verificação dos verificadores de factos profissionais.
O trabalho muitas vezes parece um jogo de golpe na toupeira. Alegações desmascaradas ressurgem rotineiramente em plataformas repletas de falsificações, um padrão que alguns pesquisadores chamam de desinformação “zumbi”.
Os algoritmos amplificam o conteúdo com base no envolvimento, e o envolvimento é muitas vezes impulsionado pelo sensacionalismo, indignação e desinformação.
As plataformas de redes sociais “atuam como editores através do que decidem mostrar aos seus utilizadores, principalmente através do seu feed. E, muitas vezes, isso inclui conteúdo prejudicial e desinformação”, disse Saint Laurent.
Os incentivos financeiros aceleram ainda mais o problema. Algumas plataformas, incluindo X, permitem que os criadores obtenham receitas com base no envolvimento, incentivando os influenciadores a promover conteúdo enganoso ou totalmente fabricado para obter cliques.
De acordo com o Instituto para o Diálogo Estratégico (ISD), com sede em Londres, uma rede de contas X que publicam conteúdo de IA sobre a guerra na Ásia Ocidental acumulou mais de mil milhões de visualizações desde o início do conflito.
Em outro exemplo viral, uma conta X postou um vídeo de IA que parecia mostrar o arranha-céu Burj Khalifa de Dubai desabando em uma nuvem de poeira.
“10 milhões de visualizações e nenhuma nota da comunidade. Nós cozinhamos vocês”, escreveu o analista de guerra de informação Tal Hagin no X 20 horas depois de ter sido postado.
Quando uma Nota da Comunidade, um sistema de verificação colaborativo, cuja eficácia tem sido repetidamente questionada pelos investigadores, foi anexada ao submit, algumas horas depois, o vídeo tinha mais de 12 milhões de visualizações.
O conteúdo sintético continuou a proliferar no X mesmo depois de a plataforma de propriedade de Elon Musk ter anunciado que penalizaria os criadores, suspendendo-os do seu programa de partilha de receitas por 90 dias, se publicassem vídeos de guerra de IA sem rótulo.

O conteúdo de IA baseado em memes que banaliza os conflitos à medida que espalha desinformação está cada vez mais a excluir a realidade das plataformas digitais, no que os investigadores do ISD chamam de “Legoficação” da propaganda de guerra.
Uma paródia do “Filme Lego” da IA iraniana se tornou viral na primeira semana da guerra, acusando o presidente dos EUA, Donald Trump, de atacar Teerã para desviar a atenção de seu papel no escândalo de Jeffrey Epstein.
Vídeos de memes realistas também foram usados para retratar vitórias militares iranianas fictícias e até mesmo o estratégico Estreito de Ormuz reimaginado como um pedágio de desenho animado.
O próprio Trump alertou que a IA se tornou uma “arma de desinformação que o Irão utiliza muito bem”.
“Edifícios e navios que estão em chamas não estão – são notícias falsas, geradas pela IA”, escreveu ele no Fact Social.
No entanto, o presidente dos EUA abraçou enormemente a tecnologia, partilhando imagens e vídeos gerados por IA para se retratar como rei e Tremendous-Homem, ao mesmo tempo que classifica os adversários como criminosos ou motivo de chacota.
Ele também usou memes de IA para alimentar teorias de conspiração e narrativas falsas.
Entretanto, operações de informação coordenadas ligadas à Rússia estão a explorar o caos on-line, fazendo-se passar por meios de comunicação social de confiança, como a BBC, para espalhar falsidades, de acordo com a ISD.
“Acreditamos que as plataformas tecnológicas não estão fazendo o suficiente para ajudar os usuários a identificar se o conteúdo é gerado por IA ou autêntico”, disse no mês passado o Conselho de Supervisão da Meta, órgão criado pelo Fb para revisar as decisões de moderação de conteúdo.
“O conteúdo falso pode ser prejudicial, incitando mais violência e alimentando mais conflitos”, acrescentou.
A AFP trabalha em 26 idiomas com o programa de verificação de fatos do Fb, inclusive na Ásia, na América Latina e na União Europeia.
A Meta encerrou seu programa de verificação de fatos terceirizados nos EUA no ano passado, com o presidente-executivo Mark Zuckerberg dizendo que isso levou a “censura demais”; uma afirmação fortemente rejeitada pelos proponentes do programa.
Em vez disso, Zuckerberg disse que as plataformas da Meta, Fb e Instagram, usariam o modelo “Group Notes”; uma medida que os críticos argumentam que poderia enfraquecer ainda mais as salvaguardas contra a desinformação.
O Conselho de Supervisão da Meta alertou que a expansão do modelo fora dos Estados Unidos poderia representar “riscos significativos para os direitos humanos e contribuir para danos tangíveis” para as pessoas que vivem sob repressão ou conflito.
As ferramentas de detecção de IA foram criadas para atravessar a névoa da guerra de informação. Em vez disso, às vezes eles o tornam mais denso.
No caso de Netanyahu, os teóricos da conspiração apontaram para uma ferramenta de detecção de IA que rotulou falsamente o vídeo da sua cafeteria como “96,9% gerado por IA”. Outras ferramentas chegaram à conclusão oposta.
O problema vai além dos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas, mapas de calor e outros recursos visuais pseudo-forenses usados para lançar dúvidas sobre evidências genuínas da guerra, dizem os pesquisadores.
“A ascensão dos deepfakes de IA e a rejeição de imagens reais são as duas faces da mesma moeda”, disse Sofia Rubinson, do órgão de vigilância de desinformação NewsGuard.
“Quando tudo pode ser falso, fica fácil acreditar que tudo é.”
Os utilizadores das redes sociais acusaram falsamente as principais organizações de comunicação social, como o New York Occasions, de publicar imagens de conflitos geradas pela IA, incluindo uma que mostrava uma grande multidão em Teerão celebrando o novo aiatolá Mojtaba Khamenei.
Aqueles que beneficiam da desinformação podem facilmente explorar isto, um fenómeno que os investigadores chamam de “dividendo do mentiroso”, onde informação genuína mas pouco lisonjeira é descartada como sendo gerada pela IA.
“Não deixe que a tecnologia de IA prejudique sua disposição de confiar em tudo que você vê e ouve”, disse Hannah Covington, diretora sênior de conteúdo educacional do Information Literacy Challenge, uma organização sem fins lucrativos.
“É isso que os maus atores querem: que as pessoas pensem que tudo pode ser falsificado, para que não possam confiar em nada”, disse Covington à AFP.
Os sinais dessa mudança já são visíveis, à medida que imagens falsas de incidentes reais poluem ainda mais o panorama da informação.
Após um ataque mortal a uma escola primária na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma fotografia mostrando a mochila de uma criança manchada de sangue e poeira.
A AFP descobriu que a imagem provavelmente foi gerada por IA. Mas poucos on-line pareciam preocupados com o fato de uma imagem fabricada ter sido usada para retratar a morte de crianças reais.
“Provavelmente editado pela IA, mas o significado é actual”, escreveu um usuário do Reddit.









