A Meta, dona do Instagram e do Facebook, anunciou em janeiro que mensagens com cobertura de menor gravidade só serão revisadas se denunciadas pelos usuários. Um estudo do Centro de Combate ao Ódio Digital (CCDH) estima que essa mudança pode afetar 97% das ações de moderação da empresa e resultar em uma onda de 277 milhões de publicações.
A organização, que atua contra a desinformação na internet, alerta que a decisão pode facilitar a propagação do discurso de ódio e conteúdos perigosos. O CCDH também critica o fim da verificação de fatos nos EUA e a substituição do sistema por “notas da comunidade”, semelhante ao modelo do X (antigo Twitter), onde os usuários corrigem informações de formativa colaborativa.
Além disso, os sistemas de detecção automática da Meta agora só atuarão em casos considerados de alta gravidade ou prejudiciais, deixando outras revelações dependentes de denúncias feitas por usuários.
A nova política também pode impactar áreas como bullying e assédio, ódio organizado, suicídio, automutilação e conteúdo gráfico. Segundo o CCDH, a mudança que sinaliza um afrouxamento na moderação da empresa e foi anunciada poucos dias antes da posse do presidente dos EUA, Donald Trump.
Mark Zuckerberg justificou a decisão de dizer que a eleição norte-americana marcou um “ponto de flexão cultural”, reforçando a prioridade da Meta na liberdade de expressão. A empresa também afirmou que pretende “simplificar” suas regras e eliminar restrições sobre temas como imigração e gênero.
Na mesma semana, Elon Musk anunciou uma mudança semelhante no X, afirmando que revisará o recurso que permite aos usuários avaliar ou rejeitar publicações potencialmente falsas.
Para Imran Ahmed, CEO da CCDH, o sistema baseado na participação do usuário não pode substituir totalmente equipes dedicadas de moderação e inteligência artificial, tornando a mudança da Meta um risco significativo para a segurança online.
Fonte: g1.globo.com



