Início Tecnologia A crise dos deepfake nus nas escolas é muito pior do que...

A crise dos deepfake nus nas escolas é muito pior do que você pensava

10
0

 

No entanto, existem padrões claros que aparecem. Em quase todos os casos, os adolescentes são supostamente responsáveis ​​pela criação das imagens ou vídeos. Freqüentemente, eles são compartilhados em aplicativos de mídia social ou por meio de mensagens instantâneas com colegas de classe. E são extremamente prejudiciais para as vítimas. “Estou preocupado que toda vez que eles me vejam, vejam aquelas fotos”, uma vítima em Iowa disse no início deste ano. “Ela está chorando. Ela não tem comido”, disse a família de outra pessoa. disse.

Em vários casos, as vítimas muitas vezes não querem frequentar a escola ou vêem aqueles que criaram imagens ou vídeos explícitos delas. “Ela se sente desesperada porque sabe que essas imagens provavelmente chegarão à internet e chegarão aos pedófilos”, dizem o advogado Shane Vogt, e três estudantes da Faculdade de Direito de Yale, Catharine Strong, Tony Sjodin e Suzanne Castillo, que estão representando um adolescente não identificado de Nova Jersey em ação legal contra um serviço de nudificação. “Ela está muito angustiada ao saber que essas imagens estão por aí e terá que monitorar a internet pelo resto da vida para evitar que elas se espalhem.”

Em Coréia do Sul e Austráliaas escolas deram aos alunos a opção de não terem suas fotos nos anuários ou pararam de postar imagens de alunos em suas contas oficiais de mídia social, citando seu uso para possível abuso de deepfake. “Em todo o mundo, houve casos em que imagens de escolas foram tiradas de páginas públicas de redes sociais, alteradas usando IA e transformadas em deepfakes prejudiciais”, disse uma escola na Austrália. disse. “Em vez disso, as imagens apresentarão perfis laterais, silhuetas, nucas, fotos de grupos distantes, filtros criativos ou banco de imagens aprovado.”

Deepfakes sexuais criados usando IA existem desde o final de 2017; no entanto, à medida que os sistemas generativos de IA surgiram e se tornaram mais poderosos, conduziram a um ecossistema sombrio de tecnologias de “nudificação” ou “despir”. Dezenas de aplicativos, bots e sites permitem que qualquer pessoa crie imagens e vídeos sexualizados de outras pessoas com apenas alguns cliques, muitas vezes sem nenhum conhecimento técnico.

“O que a IA muda é a escala, a velocidade e a acessibilidade”, afirma Siddharth Pillai, cofundador e diretor da Fundação RATI, uma organização sediada em Mumbai que trabalha para prevenir a violência contra mulheres e crianças. “A barreira técnica caiu significativamente, o que significa que mais pessoas, incluindo adolescentes, podem produzir resultados mais convincentes com um esforço mínimo. Tal como acontece com muitos danos causados ​​pela IA, isto resulta num excesso de conteúdo.”

Amanda Goharian, diretora de pesquisa e insights do grupo de segurança infantil Thorn, diz que sua pesquisa indica que existem diferentes motivações envolvidas na criação de abusos deepfake por adolescentes, que vão desde motivações sexuais, curiosidade, vingança ou até mesmo adolescentes desafiando uns aos outros para criar as imagens. Estudos envolvendo adultos que criaram abusos sexuais falsos mostram de forma semelhante série de razões diferentes por que as imagens podem ser criadas. “O objetivo nem sempre é a gratificação sexual”, diz Pillai. “Cada vez mais, a intenção é a humilhação, a difamação e o controle social.”

“Não se trata apenas de tecnologia”, diz Tanya Horeck, professora feminista de estudos de mídia e pesquisadora com foco na violência de gênero, que analisou deepfakes sexualizados em escolas do Reino Unido na Universidade Anglia Ruskin. “Trata-se da dinâmica de género de longa data que facilita estes crimes.”

fonte