Publicação sobre câncer de mama no Brasil inaugura “tribunal” do Facebook

01/12/2020 19:08 Atualizado: 01/12/2020 19:08

Por Agência EFE

Imagens de mamilos femininos publicadas no Instagram para alertar sobre o câncer de mama no Brasil e que foram apagadas pela rede social são um dos seis primeiros casos que o conselho de conteúdo do Facebook admitiu nesta terça-feira (01), quando iniciou suas atividades.

O Facebook (proprietário do Instagram) retirou as fotos por violarem a política contra a nudez e a atividade sexual, mas o usuário que as publicou considerou a decisão injusta e recorreu ao conselho, que concordou em rever a questão.

A criação de um conselho de supervisão independente foi anunciada em 2018 pelo CEO do Facebook, Mark Zuckerberg, para tentar responder às críticas de abuso de poder e moderação arbitrária de conteúdo por parte da maior rede social do mundo.

Segundo o próprio conselho (que opera independentemente do Facebook), o usuário já indicava no título original de sua mensagem no Instagram que o objetivo era alertar sobre os sinais do câncer de mama, e as oito fotografias postadas mostravam indicadores desta doença nos seios das mulheres.

Além deste caso, o conselho concordou em rever outros cinco: uma captura de tela do ex-primeiro-ministro da Malásia Mahathir Mohamad, na qual ele justificava os ataques de muçulmanos a cidadãos franceses; uma foto de uma criança morta; uma citação de um líder nazista; uma mensagem considerada de ódio contra o Azerbaijão; e outra sobre a Covid-19 na França que o Facebook considerava ser informação falsa.

Facebook e Instagram possuem guias de usuário que limitam o conteúdo que pode ser compartilhado nas plataformas (por exemplo, mensagens que incitam à violência, imagens explicitamente sexuais, etc.) e quando a empresa considera que essas regras foram violadas, remove o conteúdo.

No entanto, a natureza inevitavelmente subjetiva de muitas dessas decisões faz com que muitos usuários sintam que a empresa toma decisões injustas.

A ideia por trás do conselho é que, se um usuário acredita que seu conteúdo foi injustamente removido, ele pode recorrer a este órgão, cuja opinião será vinculativa no Facebook, “a menos que sua implementação seja contra a lei”.

A empresa anunciou em maio que entre os membros desta equipe estão a ex-primeira ministra dinamarquesa Helle Thorning-Schmidt e a ex-relatora para a Liberdade de Expressão da Comissão Interamericana de Direitos Humanos (CIDH) Catalina Botero Marino.

Apoie nosso jornalismo independente doando um “café” para a equipe.

Veja também: