Se você deseja que um aplicativo criado possa ser baixado da Apple App Retailer ou da Google Play Retailer, ele deve passar por uma série de critérios, incluindo padrões de segurança.
Mas um novo relatório na quarta-feira alega que a Apple e o Google quebraram suas próprias regras ao promover aplicativos “nudificar” que são proibidos nas políticas de suas lojas de aplicativos.
O Tech Transparency Challenge, parte de uma organização sem fins lucrativos de vigilância tecnológica, revelou pela primeira vez em janeiro que as lojas de aplicativos da Apple e do Google tinham mais de 100 aplicativos para nudificar ou despir. São aplicativos com o único propósito de tirar fotos de pessoas, geralmente mulheres, e editá-las para parecerem aquela pessoa sem roupa, criando o que chamamos de imagens íntimas não consensuais. Muitos desses aplicativos usam IA generativa para criar deepfakes.
A Apple removeu alguns dos aplicativos proibidos na época. Mas muitos ainda estão por aí, como evidenciado numa investigação subsequente.
Em abril, a TTP descobriu que a Apple e o Google ainda permitiam que os usuários pesquisassem uma série de palavras-chave preocupantes, incluindo “nudificar”, “despir-se” e “deepnude”. Depois de uma análise profunda dos 10 principais aplicativos em ambas as lojas de aplicativos, a TTP descobriu que 40% dos aplicativos se anunciavam como capazes de “mostrar mulheres nuas ou seminuas”, de acordo com o relatório.
O novo relatório também descobriu que o Google e a Apple realmente promoveram esses aplicativos em suas lojas, aumentando sua visibilidade, com o Google em explicit criando “um carrossel de anúncios para alguns dos aplicativos mais sexualmente explícitos encontrados na investigação”.
Leia mais: Como manter as crianças seguras on-line? A Europa acredita que seu aplicativo de verificação de idade é a resposta
A Apple e o Google têm textos em suas políticas que proíbem aplicativos com “materials abertamente sexual ou pornográfico” (Maçã) e “poses sexualmente sugestivas em que o sujeito está nu, desfocado ou minimamente vestido” (Google). E ambos aplicaram essas políticas no passado – principalmente perseguindo aplicativos pornográficos.
Mas a Apple e o Google ganham dinheiro com desenvolvedores de aplicativos veiculando publicidade e participando de assinaturas de aplicativos pagos. A empresa de análise AppMagic descobriu que esses aplicativos “nudificar” foram baixados 483 milhões de vezes e geraram mais de US$ 122 milhões em receita vitalícia.
“Esse fluxo de receita pode ser o motivo pelo qual as duas empresas têm sido menos vigilantes quando se trata de nudificar aplicativos que violam suas políticas”, escreve TTP.
O Google disse à CNET que o Google Play não permite aplicativos que contenham conteúdo sexual e que muitos dos aplicativos mencionados no relatório foram suspensos por violarem suas políticas.
A Apple disse à CNET que removeu 15 dos aplicativos sinalizados no relatório e contatou seis outros desenvolvedores de aplicativos, notificando-os de que eles precisam resolver problemas ou correm o risco de serem removidos da loja. Também bloqueou vários termos de pesquisa adicionais sinalizados pelo TTP.
O conteúdo graficamente sexual não consensual é um problema crescente, em parte devido à IA. Vimos com uma clareza surpreendente como aplicativos com IA podem ser usados para criar esse conteúdo ilegal e abusivo no início do ano, quando os usuários do Grok fizeram 1,4 milhão de deepfakes sexualizados durante um período de nove dias.
Alguns Senadores dos EUA na época pediu à Apple e ao Google que removessem o Grok de suas lojas de aplicativos, mas nenhum deles o removeu.
Soubemos esta semana que a Apple entrou em contato com Grok em explicit para expressar suas preocupações sobre seus recursos abusivos de IA e ameaçou removê-lo. Grok ainda está disponível nas lojas de aplicativos da Apple e do Google e ainda está supostamente capaz de criar imagens sexuais abusivas de IAapesar da empresa ditado de outra forma.












