Após duas perdas massivas nos tribunais dos EUA em torno da segurança infantil on-line, a Meta está expandindo seus programas de segurança para adolescentes. O empresa disse na quinta-feira que está expandindo o uso de seu padrão inspirado na classificação de filmes PG-13 para contas de adolescentes internacionalmente, especialmente na Europa.
O Classificação PG-13, como todos sabemos, foi criado pela Movement Image Affiliation. É essencialmente um sinal de alerta para os pais de que um filme tem conteúdo que pode não ser adequado para crianças menores de 13 anos devido à violência, linguagem, sexo ou outros fatores. As contas de adolescentes do Instagram restringem os tipos de conteúdo que esses usuários recebem, dizendo que agora são “inspirados” na classificação PG-13 da MPA.
A Meta lançou essas mudanças nos EUA, Reino Unido, Austrália e Canadá em outubro de 2025. Pouco depois, a MPA enviou a Meta uma carta de cessar e desistir em novembro de 2025 por usar o termo PG-13 sem permissão. Em março, as duas organizações fechou um acordo para esclarecer o que o padrão significava quando usado em referência ao conteúdo de mídia social.
“Embora existam diferenças entre filmes e mídias sociais, fizemos essas mudanças para que as experiências dos adolescentes com mais de 13 anos pareçam mais próximas do equivalente do Instagram a assistir a um filme classificado como apropriado para maiores de 13 anos”, disse Meta em uma postagem no blog de quinta-feira anunciando a política.
É o mais recente movimento da Meta na tentativa de garantir ao público que suas plataformas são seguras para usuários jovens. Em 24 de março, um júri do Novo México considerou Meta responsável por negligência por enganar os usuários sobre a segurança das crianças e permitir a exploração infantil, ordenando que a empresa pague US$ 375 milhões em indenizações punitivas. No dia seguinte, 25 de março, um júri de Los Angeles considerou a Meta e o Google responsáveis por construindo suas plataformas de mídia social para serem viciantes. Meta discordou de ambos os veredictos e o Google disse que planeja apelar.
Mais de 13 contas de adolescentes do Instagram
Instagram programa de contas para adolescentes lançado nos EUA em 2024. O objetivo period mover todos os usuários menores de 16 anos para essas contas mais privadas e seguras. As contas de adolescentes são privadas por padrão, o que significa que é mais difícil para estranhos interagirem com elas. Essas contas também estão sujeitas às configurações de conteúdo mais restritas do Instagram, o que significa que não devem ser mostradas postagens que sejam sexualmente sugestivas, contenham imagens gráficas ou perturbadoras ou substâncias adultas, como tabaco e álcool. Os adolescentes precisam da permissão dos pais para desativar essas configurações padrão. Meta aceitou essas restrições de conteúdo um passo adiante em outubro de 2025 com sua primeira versão de mais de 13 classificações.
Contas de adolescentes do Instagram vão “esconder[e] recomendar ou não postagens com linguagem forte, certas acrobacias arriscadas e conteúdo adicional que poderia encorajar comportamentos potencialmente prejudiciais, como postagens mostrando parafernália de maconha”, reiterou Meta em seu weblog esta semana.
Acrescentou que os adolescentes não poderão mais seguir pessoas que já seguem se essas contas tiverem um nome de usuário “inapropriado” e compartilharem consistentemente conteúdo “inapropriado para a idade” para adolescentes. E para os pais que não acham que essas configurações padrão sejam suficientes, o Meta tem uma nova configuração de “conteúdo limitado” que é ainda mais rigorosa em relação a comentários e interações de IA. A Meta foi criticada no ano passado, quando um relatório interno mostrou que seus chatbots de IA teriam interações “sensuais” com crianças.
Os críticos disseram que os controles de conteúdo do Instagram para usuários mais jovens podem impedi-los de ver conteúdo informativo. Sistemas de moderação do Instagram, cada vez mais alimentado por IApode ter dificuldade para interpretar o contexto em torno de palavras-chave específicas. Por exemplo, postagens sobre saúde reprodutiva ou distúrbios alimentares podem ser sinalizadas, mesmo que sejam de conteúdo educacional.










