Uma ação judicial nos Estados Unidos alega que a Meta, dona do Facebook, ocultou evidências de que o uso da rede social pode prejudicar a saúde mental dos usuários, principalmente jovens.
O processo, movido por distritos escolares norte-americanos, relata que a empresa suspendeu um estudo interno ao constatar resultados negativos, dificultando o acesso a informações essenciais sobre riscos para usuários vulneráveis.
Ao longo desta notícia, você vai entender os principais pontos do processo, detalhes das alegações contra a Meta e outras empresas como Google, TikTok e Snapchat, e como essas informações inéditas reacendem o debate público sobre saúde mental e redes sociais.
O que você vai ler neste artigo:
De acordo com a ação, a Meta teria conduzido em 2020 o chamado “Projeto Mercury”, em parceria com a Nielsen, a fim de avaliar o impacto da desativação do Facebook sobre a saúde mental.
O experimento mostrou que as pessoas que ficaram uma semana longe da plataforma relataram sentir menos sintomas de depressão, ansiedade e solidão. Apesar disso, os resultados não foram divulgados ao público — ao contrário, o estudo foi cancelado após o levantamento dos dados.
Documentos anexados ao processo demonstram que, internamente, funcionários alertaram para os efeitos adversos identificados e defenderam a credibilidade do estudo. Relatos compararam a conduta da Meta à da indústria do tabaco no passado, acusando a gigante das redes sociais de esconder informações prejudiciais à saúde do público para proteger interesses comerciais.
Leia também: Aposentados do INSS podem solicitar empréstimo no Nubank; saiba como
Leia também: INSS antecipa pagamento de aposentadorias: confira as novas datas
Além da Meta, o Google, TikTok e Snapchat também são alvos do processo. As empresas estariam negligenciando a proteção dos menores de idade, adotando mecanismos de segurança considerados ineficazes e promovendo estratégias para aumentar o engajamento de crianças e adolescentes.
Cabe destacar que, segundo o processo, práticas como exigir que um usuário fosse flagrado diversas vezes promovendo tráfego de pessoas para remoção de seu perfil, e retardar iniciativas para proteger menores de predadores online, teriam ocorrido dentro da Meta.
A Meta e as empresas citadas negam as acusações. O porta-voz da Meta afirma que o estudo cancelado tinha limitações metodológicas e que a empresa vem aprimorando recursos de segurança há mais de uma década, ouvindo especialistas e a própria comunidade. A companhia argumenta que o processo distorce seu compromisso com a segurança dos jovens e com a transparência das informações repassadas ao público e a órgãos governamentais.
Leia também: INSS inicia pagamentos de novembro para aposentados e pensionistas
A ação foi protocolada em um tribunal da Califórnia e sua audiência está marcada para 26 de janeiro. O desdobramento desse caso pode impactar diretamente o futuro da regulação sobre o funcionamento das principais plataformas sociais do planeta.
O debate acerca dos impactos das redes sociais na saúde mental de jovens está mais acirrado do que nunca. As discussões judiciais evidenciam tanto a necessidade de responsabilização quanto a de mais transparência e ação efetiva das empresas do setor. Para receber análises exclusivas e seguir informado sobre as principais pautas do universo digital e seus efeitos sociais, inscreva-se em nossa newsletter e acompanhe as próximas atualizações diretamente no seu e-mail.
Além da Meta, as empresas Google, TikTok e Snapchat também são citadas por supostas falhas na proteção de menores e incentivo ao uso excessivo.
O estudo mostrou que usuários que ficaram uma semana fora do Facebook apresentaram menos sintomas de depressão, ansiedade e solidão.
A Meta nega as acusações, afirma que o estudo tinha limitações metodológicas e reforça seu compromisso com a segurança dos jovens e a transparência.
O processo aponta riscos como negligência na proteção de menores, dificuldades em retirar perfis suspeitos e promoção do uso excessivo, até durante o horário escolar.
O desdobramento pode influenciar futuras regras e políticas para garantir maior segurança, transparência e responsabilidade das plataformas digitais.