Em abril, Meta silenciosamente se inverteu depois de remover uma postagem do Instagram homenageando relacionamentos lésbicos mais antigos no Brasil. A postagem extirpada não period de natureza sexual e não continha materials prejudicial a menores. A postagem em questão documentou um instantâneo de um momento na história em que lésbicas foram forçadas a esconder seus relacionamentos como “colegas de quarto” ou “amigas” e seu amor foi apagado dos registros públicos. Mesmo assim, Meta removeu o conteúdo.
Meta citou suas regras sobre discurso de ódio. O Conselho de Supervisão mais tarde reconheceu o que deveria ter sido óbvio desde o início: o caso do Brasil foi um exemplo de aplicação excessiva contra uma comunidade marginalizada, impulsionada por sistemas automatizados que não conseguiam ler o contexto, a linguagem recuperada ou mesmo a própria postagem completa. O conteúdo foi restaurado somente após intervenção externa e defesa da comunidade LGBTQ+.
Favorito dos fãs do Mashable 101: Vote no seu criador favorito hoje!
Este caso está agora a ser tratado como um erro restrito de moderação de conteúdo, mas os decisores políticos precisam de reconhecer que sinaliza um aviso claro sobre o que acontece quando os legisladores forçam as plataformas a policiar o conteúdo em vez de corrigirem o design. Em todo o país, os estados estão a apressar-se para “proteger as crianças on-line”, restringindo o acesso às redes sociais ou pressionando as empresas a remover conteúdo “prejudicial” vagamente definido. Mas o que aconteceu no Brasil mostra o custo humano dessa abordagem.
Quando as plataformas são incentivadas a remover a fala rapidamente e em grande escala, elas não se tornam melhores avaliadoras das nuances. As redes sociais tornam-se um instrumento contundente e as primeiras pessoas atingidas são aquelas cujas histórias requerem contexto humano e empatia radical para serem compreendidas.
Se os legisladores quiserem realmente proteger as crianças, devem parar de pedir às plataformas que decidam quais as histórias que são aceitáveis e começar a regulamentar as principais escolhas de design que causam danos, como a rolagem interminável, as recomendações baseadas no envolvimento e os feeds orientados pela vigilância.
Eu tive um Sugar Daddy do Grindr por um dia. Então ele tentou obter um reembolso.
Veja por que essa distinção é importante, especialmente para crianças LGBTQ+ e outras comunidades marginalizadas, como crianças neurodivergentes. Os jovens LGBTQ+ são muito mais propensos do que os seus pares a confiar em espaços online para encontrar uma comunidadeinformação e apoio, muitas vezes porque essas coisas não estão disponíveis ou são inseguras em casa ou na escola. Mas também são significativamente mais provável acabar em interações on-line inseguras: assédio, aliciamento, doxxing ou serem empurrados para espaços de alto risco que não procuravam.
Na Austrália, depois de um proibição de mídia social para menores de 16 anos foi promulgada, os defensores dos direitos das pessoas com deficiência observaram que os jovens autistas foram excluídos de algumas das únicas redes de apoio e pares disponíveis para eles.
Velocidade da luz mashável
Os sistemas de recomendação não compreendem a vulnerabilidade, mas compreendem o envolvimento. Quando uma criança queer procura uma comunidade, as plataformas geralmente respondem amplificando agressivamente tudo o que os faz clicar. Geralmente, isso significa conteúdo cada vez mais sexualizado, adultos estranhos, retórica extremista ou contas predatórias que sabem exatamente como explorar o isolamento.
A rolagem infinita torna o desligamento muito mais difícil para os adolescentes, de acordo com o Centro de informações de privacidade eletrônicaainda mais para aqueles que vivem em comunidades vulneráveis. Sugestões algorítmicas de “amigos” ou “contas” derrubam fronteiras liminares entre adolescentes e adultos. Padrões fracos dificultam o bloqueio, o silenciamento ou o desaparecimento.
Os jovens, e não apenas os jovens LGBTQ+, estão expostos a danos on-line porque as plataformas são construídas para chamar a atenção e não para proteger os utilizadores. Os pais têm razão em ficar preocupados e defender mudanças. Mas um enquadramento baseado em conteúdo ignora o problema actual.
Os maiores riscos que as crianças enfrentam on-line não vêm de uma única postagem ruim que escapa da moderação, mas de sistemas automatizados que empurram conteúdo para crianças que elas não pediram, conectam-nas a pessoas que elas não conhecem e as mantêm navegando por muito tempo depois que os sinais de alerta aparecem.
Os decisores políticos, tanto a nível estadual como federal, precisam de conceber regulamentos que abordem directamente esses riscos. Os códigos de design adequados à idade não dizem às plataformas que discurso permitir, mas podem dizer às plataformas como se comportar. Os códigos de design exigem padrões mais seguros, como limites para perfis comportamentais, ferramentas de bloqueio mais fortes, amplificação reduzida de recomendações não solicitadas e proteções que retardam a viralidade e o uso compulsivo.
O público deveria defender o refinamento do produto, em vez da violação dos direitos da Primeira e Quarta Emendas. Os códigos de design reduzem an opportunity de uma criança curiosa ou solitária ser canalizada algoritmicamente para o perigo, como eu fui, em busca de uma comunidade e empurrada para o risco por sistemas que não se importavam com quem eu period.
Os códigos de design adequados à idade oferecem uma saída para esta confusão. Ao common a forma como as plataformas são construídas e não o que as pessoas podem dizer, as leis de código de design reduzem os danos sem transformar as empresas em censores culturais. Eles não exigem plataformas para interpretar calúnias recuperadas, história queer ou discurso político. Em vez disso, as empresas deveriam ser obrigadas a acabar com o vício e o risco da engenharia.
Não precisamos de mais proibições de conteúdo ou de plataformas. Precisamos de menos sistemas prejudiciais. Se levamos a sério a proteção das crianças on-line, especialmente aquelas que já estão em maior risco, este caso nos lembra exatamente por onde começar.
Este artigo reflete a opinião do escritor.
Lennon Torres é um ex- Mães dançantes artista que agora luta pela segurança dos jovens on-line. Ativista trans e ex-aluna da Universidade do Sul da Califórnia, ela usa sua fluência na cultura pop e experiência vivida para impulsionar seu trabalho no Iniciativa Calorenfrentando gigantes da tecnologia e exigindo plataformas para proteger e capacitar a próxima geração.

