O CEO da Meta, Mark Zuckerberg, deixa o Tribunal Federal no centro de Los Angeles depois de defender a empresa em um julgamento histórico sobre dependência de mídia social em Los Angeles, Estados Unidos, em 19 de fevereiro de 2026.
Jon Putman | Anadolú | Imagens Getty
Há mais de uma década, meta – então conhecida como Fb – contratou pesquisadores da área de ciências sociais com o objetivo de analisar como os serviços da rede social estavam impactando os usuários. Foi uma forma de a empresa e os seus pares mostrarem que levavam a sério a compreensão dos benefícios e riscos potenciais das suas inovações.
Mas, como ilustram as perdas judiciais da Meta esta semana, o trabalho dos investigadores pode tornar-se um risco. Brian Boland, um ex-executivo do Fb que testemunhou em ambos os julgamentos – um no Novo México e outro em Los Angeles – diz que as conclusões contundentes da pesquisa interna e dos documentos da Meta aparentemente contradizem a forma como a empresa se retratava em público. Os júris dos dois julgamentos determinaram que a Meta policiou inadequadamente seu website, colocando as crianças em perigo.
A empresa de Mark Zuckerberg começou a reprimir suas equipes de pesquisa há alguns anos, depois que uma pesquisadora do Fb, Frances Haugen, se tornou uma denunciante proeminente. A nova safra de empresas de tecnologia como OpenAI e Anthropic posteriormente investiu pesadamente em pesquisadores e os encarregou de estudar o impacto da IA moderna nos usuários e de publicar suas descobertas.
Com a IA a receber agora uma atenção descomunal pelos efeitos nocivos que tem sobre alguns utilizadores, essas empresas devem perguntar se é do seu interesse continuar a financiar a investigação ou suprimi-la.
“Houve um período em que havia equipes criadas internamente que podiam começar a observar as coisas e, por um breve período, tivemos alguns pesquisadores absolutamente notáveis que observavam o que estava acontecendo nesses produtos com um pouco mais de rédea solta do que eu entendo que eles têm hoje”, disse Boland em entrevista.
As duas derrotas da Meta esta semana centraram-se em casos diferentes, mas tinham um tema comum: a empresa não partilhou com o público em geral o que sabia sobre os danos dos seus produtos.
Os membros do júri tiveram que avaliar milhões de documentos corporativos, incluindo e-mails executivos, apresentações e pesquisas internas conduzidas pela equipe da Meta. Os documentos incluíam pesquisas internas que pareciam mostrar uma porcentagem preocupante de usuários adolescentes que recebiam investidas sexuais indesejadas no Instagram. Houve também pesquisas, que a Meta acabou interrompendo, sugerindo que as pessoas que restringiam o uso do Fb ficavam menos deprimidas e ansiosas.
Os advogados dos demandantes nos casos não se basearam apenas em pesquisas internas para apresentar seus argumentos, mas esses estudos ajudaram a reforçar suas posições sobre a alegada culpabilidade de Meta. As equipes de defesa da Meta argumentaram que certas pesquisas eram antigas, tiradas de contexto e enganosas, apresentando uma visão falha de como a empresa opera e como vê a segurança.
‘Ambos os lados da história’
“O júri ouviu os dois lados da história e uma apresentação muito justa dos fatos, e tomou uma decisão com base no que viu”, disse Boland. “E ambos os júris, com casos muito diferentes, voltaram com veredictos claros”.
A Meta e o YouTube, do Google, que também foi réu no julgamento de Los Angeles, disseram que apelariam.
Lisa Strohman, psicóloga e advogada que atuou como consultora especializada interna para o processo do Novo México, disse que os líderes da Meta e de toda a indústria de tecnologia podem ter pensado que poderiam usar a pesquisa interna a seu favor, ganhando o favor do público.
“Acho que o que eles não conseguiram reconhecer é que os investigadores são pais e membros da família”, disse Strohman. “E acho que o que eles não perceberam foi que essas pessoas não seriam compradas.”
Qualquer que fosse a vitória em relações públicas que os executivos esperavam, o tiro saiu pela culatra quando a pesquisa começou a se espalhar para o público. O incidente mais prejudicial para o Meta ocorreu em 2021, quando Haugen, um ex-gerente de produto do Fb que se tornou denunciante, vazou uma série de documentos que sugeriam que a empresa sabia dos danos potenciais de seus produtos.
Frances Haugen, ex-funcionária do Facebook, fala durante uma audiência do Subcomitê de Comunicações e Tecnologia do Comitê de Energia e Comércio no Capitólio, em 1º de dezembro de 2021, em Washington, DC.
Brendan Smialowski | AFP | Imagens Getty
As “divulgações de Haugen foram um ponto de viragem significativo a nível global – não apenas para as próprias empresas, mas para investigadores, decisores políticos e o público em geral”, disse Kate Blocker, diretora de investigação e programa da organização sem fins lucrativos Children and Screens: Institute of Digital Media and Child Development.
Os vazamentos também levaram a grandes mudanças na Meta e na indústria de tecnologia, que começaram a eliminar pesquisas que poderiam ser consideradas contraproducentes para as empresas. Muitas equipes que estudavam supostos danos e questões relacionadas foram cortadas, informou anteriormente a CNBC.
Algumas empresas também começaram a remover certas ferramentas e recursos de seus serviços que pesquisadores terceirizados utilizavam para estudar suas plataformas.
“As empresas podem agora ver a investigação em curso como um passivo, mas a investigação independente e de terceiros deve continuar a ser apoiada”, disse Blocker.
Grande parte da pesquisa interna utilizada nos testes desta semana não incluiu novas revelações, e muitos dos documentos foram divulgados anteriormente por outros denunciantes, disse Sacha Haworth, diretor executivo do Tech Oversight Project. O que os julgamentos acrescentaram, disse Haworth, foram “os próprios e-mails, as próprias palavras, as próprias capturas de tela, as apresentações de marketing interno, os memorandos”, que ofereciam o contexto necessário.
À medida que a indústria tecnológica avança agressivamente para a IA, empresas como Meta, OpenAI e Google têm priorizado os produtos em detrimento da investigação e da segurança. É uma tendência que preocupa Blocker, que disse que, “assim como aconteceu com as mídias sociais anteriores, há visibilidade pública limitada sobre o que as empresas de IA estão estudando sobre seus produtos”.
“As empresas de IA parecem estar estudando principalmente os próprios modelos – comportamento do modelo, interpretabilidade do modelo e alinhamento – mas há uma lacuna significativa na pesquisa sobre o impacto dos chatbots e assistentes digitais no desenvolvimento infantil”, disse Blocker. “As empresas de IA têm a oportunidade de não repetir os erros do passado – precisamos urgentemente de estabelecer sistemas de transparência e acesso que partilhem com o público o que estas empresas sabem sobre as suas plataformas e apoiem mais avaliações independentes.”
ASSISTIR: Pressão regulatória para seguir o veredicto histórico da mídia social.














