Embora o progresso da IA tenha trazido uma onda de ferramentas úteis, também está ampliando alguns dos cantos mais obscuros da Web.
Um novo relatório da IWF (Web Watch Basis) revelou um aumento acentuado no materials de abuso sexual infantil gerado por IA (CSAM) on-line em 2025. Ele destaca como a IA generativa está sendo mal utilizada em grande escala. Este não é apenas um pequeno salto; é a prova de como esse tipo de conteúdo está sendo criado e distribuído.
Por que esta notícia é alarmante
De acordo com a IWF, mais de 8.000 imagens e vídeos de conteúdo abusivo gerados por IA foram identificados em 2025, o que marcou um aumento de 14% ano após ano. Mas o que é mais preocupante é o aumento do conteúdo de vídeo. O relatório afirmou que há um aumento de mais de 260 vezes nos vídeos gerados por IA, muitos dos quais se enquadram na categoria mais grave de abuso.
Na verdade, cerca de 65% dos vídeos analisados foram classificados como do tipo mais extremo. Isto sublinha a gravidade do problema.
Como a IA está reduzindo a barreira ao conteúdo prejudicial
A maior mudança não é nem o quantity – é a acessibilidade.
Especialistas dizem que as ferramentas generativas de IA estão tornando significativamente mais fácil a criação de materials realista de abuso. Alguns desses sistemas podem gerar imagens e vídeos realistas, manipular fotos existentes e produzir conteúdo em grande escala com o mínimo de esforço. Essa combinação permite que agentes mal-intencionados criem e distribuam materiais nocivos de forma mais rápida e barata do que nunca.
No passado, conteúdos perigosos como este eram normalmente associados à darkish net. Mas o relatório destacou quanto do materials gerado pela IA está agora a ser encontrado na net aberta, em vez de estar limitado a cantos escondidos da Web. Isto torna a detecção mais difícil, a moderação mais complexa e aumenta o risco de exposição.
Por que não há solução fácil
O conteúdo gerado por IA introduz uma nova camada de dificuldade para as autoridades e plataformas. Como o materials pode ser totalmente sintético ou derivado de imagens reais, traçar a origem ou identificar as vítimas torna-se muito mais difícil. A remoção desse tipo de conteúdo é outro obstáculo. Com a rápida evolução das ferramentas de IA, as salvaguardas costumam ser atualizadas.













