Foto: Jaromir Chalabala/Getty
Os reguladores do Reino Unido estão a apelar aos gigantes das redes sociais para imporem uma proteção mais rigorosa às crianças nas suas plataformas, depois de uma proibição geral para menores de 16 anos ter sido rejeitada pelos legisladores.
Organizações de segurança on-line Ofcom e o Gabinete do Comissário de Informação disseram ter escrito para YouTube, TikTok, Fb, Instagram e Snapchat na quinta-feira, instando-os a abordar uma ampla gama de questões de segurança infantil, desde a implementação de medidas rigorosas de verificação de idade até o combate à preparação infantil em suas plataformas.
Isso vem depois que legisladores do Reino Unido votou contra uma proposta incluir a proibição de redes sociais para menores de 16 anos em uma legislação sobre bem-estar infantil que está sendo debatida no início deste mês.
O governo do Reino Unido tem lançou uma consulta sobre a utilização das redes sociais pelas crianças para recolher as opiniões dos pais e dos jovens sobre se uma proibição das redes sociais seria eficaz.
Os governos de toda a Europa estão a ponderar regulamentações mais rigorosas para limitar o uso das redes sociais pelos adolescentes, depois de a Austrália se ter twister o primeiro país a impor uma proibição whole para menores de 16 anos, em Dezembro. Espanha, França e Dinamarca estão entre os países que ponderam medidas semelhantes.
Melhores tecnologias de verificação de idade
Ofcom disse que escreveu para plataformas de mídia social pedindo-lhes que relatassem o que estão fazendo para manter as crianças fora de suas plataformas, com prazo até 30 de abril para que respondam.
As suas exigências incluíam uma melhor aplicação dos requisitos de idade mínima, impedindo que estranhos pudessem contactar crianças, conteúdos mais seguros para adolescentes e o fim dos testes de produtos, como a IA, em crianças.
Os gigantes da tecnologia estão “não conseguindo colocar a segurança das crianças no centro de seus produtos” e não cumprem as promessas de manter as crianças seguras on-line”, disse a CEO da Ofcom, Melanie Dawes.
“Sem as proteções adequadas, como controlos de idade eficazes, as crianças têm sido expostas rotineiramente a riscos que não escolheram, em serviços que não podem realisticamente evitar”, disse Dawes.
A OIC publicou uma carta aberta na quinta-feira, dizendo que as plataformas de mídia social precisam usar estimativa de idade facial, identificação digital ou correspondência única de fotos para melhorar a verificação de idade.
Muitas plataformas contam com a “autodeclaração” como principal forma de verificar a idade de um usuário, mas isso é “facilmente contornado” e ineficaz, segundo o regulador.
“Isso coloca os menores de 13 anos em risco, ao permitir que suas informações sejam coletadas e usadas ilegalmente, sem as proteções a que têm direito”, disse o CEO da ICO, Paul Arnold, na carta.
“Com a crescente preocupação pública, o establishment não está a funcionar, e a indústria deve fazer mais para proteger as crianças. Você deve agir agora para identificar e implementar tecnologias viáveis atuais para evitar que crianças abaixo da sua idade mínima tenham acesso ao seu serviço”, acrescentou Arnold.
Meta cumpriu a proibição de mídia social da Austrália, bloqueando mais de 500.000 contas supostamente pertencentes a menores de 16 anos do Instagram, Facebook e Threads nos primeiros dias. Mas apelou ao governo australiano para reconsiderar, dizendo que uma proibição geral levaria os adolescentes a contornar a lei e a aceder a sites de redes sociais sem as salvaguardas necessárias.
O Instagram disse que alertaria os pais quando seus filhos adolescentes pesquisassem repetidamente termos como suicídio e automutilação durante um curto período de tempo.
Um julgamento histórico movido contra meta e Alphabet começaram em janeiro, com foco em uma jovem e sua mãe que alegam que o Instagram e o YouTube possuem recursos de design que contribuem para o vício.
O CEO da Meta, Mark Zuckerberg, e o CEO do Instagram, Adam Mosseri, já testemunharam, com resultado esperado em meados de março. O caso pode abrir um precedente sobre a responsabilidade que as empresas de mídia social têm sobre seus usuários mais jovens.
A Comissão Europeia abriu uma investigação em janeiro sobre o X de Elon Musk sobre a divulgação de material sexualmente explícito de crianças pelo seu chatbot de IA Grok. Além disso, a OIC emitiu uma multa de £ 14 milhões (US$ 18 milhões) contra Reddit por processamento ilegal de dados pessoais de crianças em fevereiro.
O que dizem as empresas de tecnologia
Em comunicado, um porta-voz da Meta disse à CNBC que já implementa certas medidas descritas pelos reguladores, incluindo o uso de “IA para detectar a idade dos usuários com base em sua atividade e tecnologia de estimativa de idade facial”.
Ele também possui uma conta separada para adolescentes com proteções integradas, disse o porta-voz. “Com os adolescentes usando em média 40 aplicativos por semana, acreditamos que a maneira mais eficaz de complementar nossa abordagem de garantia de idade é verificar a idade centralmente na loja de aplicativos”, acrescentaram.
TikTok diz suas tecnologias aprimoradas implementadas em toda a Europa desde janeiro para detectar e remover contas que pertençam a qualquer pessoa com idade mínima de 13 anos, com a ajuda de moderadores especializados.
Ele também utiliza estimativa de idade facial, autorização de cartão de crédito ou identificação aprovada pelo governo para confirmar a idade dos usuários, disse a empresa.
O Snapchat e o YouTube não responderam imediatamente aos pedidos de comentários da CNBC.













