Meta anuncia fim da checagem de fake news: Entenda
Mudança marca novo direcionamento nas políticas de moderação da empresa, com foco em liberdade de expressão e simplificação de processos.
O CEO da Meta, Mark Zuckerberg, anunciou nesta terça-feira (7) uma série de mudanças significativas nas políticas de moderação de conteúdo da empresa. Entre as principais alterações está o fim do programa de checagem de fatos em parceria com organizações independentes, que será substituído por um sistema de notas colaborativas, semelhante ao modelo de "Community Notes" adotado pelo X.
Mudança
A medida reflete uma mudança de postura da Meta em relação à moderação de conteúdo, com Zuckerberg citando a necessidade de simplificar políticas e reduzir erros. “Chegamos a um ponto em que nossos sistemas de moderação estão cometendo muitos erros, mesmo que acidentalmente. Isso afeta milhões de pessoas e resulta em censura desnecessária,” disse o CEO em um vídeo divulgado pela empresa.
Além do fim do programa de checagem, que envolvia mais de 90 organizações em 60 idiomas desde 2016, a Meta também anunciou mudanças na forma como lida com conteúdo político. A empresa planeja reverter medidas que limitavam a exibição de postagens sobre política nas plataformas Facebook, Instagram e Threads, citando um aumento no interesse dos usuários por discussões cívicas.
Estratégias
As mudanças acontecem em meio a críticas de diferentes setores políticos. Nos últimos anos, o programa de checagem de fatos da Meta enfrentou alegações de parcialidade por parte de líderes conservadores, enquanto a empresa foi acusada de ceder à pressão governamental para moderar conteúdo relacionado a tópicos como a pandemia de Covid-19.
Zuckerberg também revelou que a Meta trabalhará com a administração do presidente eleito Donald Trump para promover a liberdade de expressão globalmente. “Precisamos da cooperação do governo dos EUA para resistir a pressões de censura em outros países,” afirmou.
Impactos
A Meta ajustará seus sistemas automatizados de moderação para focar em violações consideradas de "alta gravidade," como conteúdos relacionados a drogas, terrorismo e exploração infantil. Políticas relacionadas a tópicos como imigração e gênero serão revisadas para depender mais de denúncias feitas pelos usuários.
Além disso, a equipe de confiança e segurança da empresa será transferida da Califórnia para o Texas, marcando uma reestruturação operacional. Zuckerberg enfatizou que os filtros de conteúdo serão ajustados para exigir maior certeza antes de remover postagens, assumindo o risco de não capturar todos os casos de conteúdo inadequado para reduzir a exclusão de postagens legítimas.
Reflexo
A decisão da Meta acompanha tendências de outras gigantes da tecnologia que revisaram suas práticas de moderação, como o X sob a liderança de Elon Musk. A adoção de sistemas comunitários para moderação reflete um movimento em direção a maior participação dos usuários na regulação de conteúdo, mas também levanta preocupações sobre possíveis abusos e limitações na eficácia contra desinformação.
Com essas mudanças, a Meta redefine sua abordagem às políticas de moderação, em um momento em que questões como liberdade de expressão e combate à desinformação permanecem no centro das discussões sobre redes sociais.
Fonte: NBC News
------------------------------------------------------------------------------------------------------------------------------
🚀 Gostou do conteúdo? Então continue lendo as principais notícias do mercado de IA.
📩 Assine a nossa newsletter e fique por dentro de tudo sobre a Inteligência Artificial.
Foto: Reprodução