Zuckerberg segue caminho de Elon Musk, critica censura e defende revisão comunitária

Este artigo aborda as recentes mudanças anunciadas pela Meta Platforms Inc. em suas políticas de moderação de conteúdo e checagem de fatos. A empresa planeja encerrar seu programa de checagem de fatos terceirizado, introduzir o recurso Notas da Comunidade e ajustar a forma como lida com conteúdo político e violações de suas políticas nas plataformas Facebook e Instagram.

Hoje, a Meta Platforms Inc. anunciou mudanças abrangentes em suas políticas de moderação de conteúdo e checagem de fatos.

Mark Zuckerberg comunicou que a empresa encerrará seu programa de checagem de fatos realizado por organizações terceirizadas.

Desde 2016, a Meta contava com mais de 90 organizações parceiras que revisavam conteúdo em mais de 60 idiomas no Facebook, e desde 2019 no Instagram.

Esse programa será substituído pelo recurso Notas da Comunidade, que permitirá aos usuários revisar a precisão das postagens.

Com as Notas da Comunidade, os usuários poderão adicionar comentários compartilhando suas perspectivas sobre uma postagem e revisar as notas uns dos outros.

A Meta afirma que o recurso exigirá concordância entre pessoas com diferentes pontos de vista para evitar avaliações tendenciosas.

O recurso será implementado nos Estados Unidos nos próximos dois meses, com planos de expansão internacional dentro de um ano.

Zuckerberg destacou o objetivo de retornar às raízes da empresa, focando em reduzir erros, simplificar políticas e restaurar a livre expressão nas plataformas.

Além disso, a Meta modificará a forma como lida com conteúdo político.

Nos últimos anos, a empresa limitou a visibilidade desse tipo de conteúdo nos feeds dos usuários.

Agora, a Meta exibirá com mais frequência postagens políticas de pessoas e páginas que os usuários seguem.

Os sistemas da Meta considerarão sinais explícitos, como o usuário ter curtido uma postagem política, e sinais implícitos, como visualizações de postagens.

Para usuários que não desejam ver conteúdo político, a empresa oferecerá configurações para filtrar esse conteúdo.

A empresa também ajustará seus sistemas automatizados de moderação.

Os sistemas focarão em violações de alta gravidade, como postagens que promovem atividades ilegais.

Para violações menos graves, a Meta relaxará suas políticas de aplicação.

A empresa só tomará medidas de moderação em relação a essas postagens se os usuários as denunciarem.

Além disso, os sistemas da Meta exigirão um grau muito maior de confiança antes de remover um conteúdo por violação das políticas.

Como parte desse esforço, a Meta está reestruturando suas equipes de confiança e segurança.

As equipes serão transferidas da Califórnia para outros locais nos Estados Unidos, incluindo o Texas.

A empresa também exigirá com mais frequência que múltiplos revisores cheguem a uma determinação antes de remover um conteúdo.

Em alguns casos, a Meta usará modelos de linguagem avançados para fornecer uma segunda opinião antes de remover conteúdo.

Também simplificará o processo para que os usuários possam recorrer das decisões de aplicação de políticas.

Para aumentar a transparência, a Meta planeja compartilhar estatísticas sobre seus erros de moderação de conteúdo.

Segundo informações do The Verge, o anúncio das novas políticas ocorre algumas semanas após a Meta receber uma carta do presidente entrante da Comissão Federal de Comunicações, Brendan Carr.

A carta acusou a empresa de participar de um ‘cartel de censura’ e mencionou a possibilidade de uma revisão governamental das atividades de moderação de conteúdo da Meta.

Total
0
Shares
Artigo anterior

Shutterstock e Getty Images se fundem em negócio de US$ 3,7 bilhões

Próximo artigo

Estratégias para construir um negócio nativo em inteligência artificial



Artigos relacionados