Engenheiros do Facebook compartilham estratégias para suprimir argumentos de direita, conforme documentos vazados

Facebook enfrenta há muito tempo acusações de parcialidade esquerdista, ressaltadas pelas tendências esmagadoramente esquerdistas de sua equipe

01/03/2019 22:07 Atualizado: 01/03/2019 22:07

Por Petr Svab

Os engenheiros do Facebook propuseram medidas para suprimir o conteúdo na plataforma que tenta convencer as pessoas a mudar seus pontos de vista para longe da esquerda, como revelado por fotografias de documentos internos e mensagens obtidas pelo Projeto Veritas. As fotos mostram que várias páginas proeminentes de destaque no Facebook foram marcadas com código que parece ter prejudicado as páginas.

O Facebook enfrenta há muito tempo acusações de parcialidade esquerdista, ressaltadas pelas tendências esmagadoramente esquerdistas de sua equipe. Embora a empresa tenha defendido que os vieses pessoais não se infiltram em seu policiamento de conteúdo, os documentos mostram os engenheiros conflitando repetidamente argumentos de direita, alguns talvez grosseiramente apresentados, com “discurso de ódio” ou “trollagem”.

Um dos engenheiros chegou a ponderar que o Facebook precisa suprimir não apenas o discurso de ódio, mas também “conteúdo próximo ao perímetro do discurso de ódio”, mesmo que o Facebook tenha reconhecido que a empresa ainda se esforça para definir o que é discurso de ódio.

“Pílula Vermelha” ou Trollagem?

As fotos(pdf) foram obtidas por um contratante do Facebook demitido há cerca de um ano, segundo o Projeto Veritas, e incluem uma apresentação de setembro de 2017 pelo gerente de ciência de dados da empresa, Seiji Yamamoto, e pelo cientista chefe de dados Eduardo Arino de la Rubia.

A apresentação documenta o que os autores consideram “trollagem coordenada” e como combatê-la.

Trollagem é um termo amplo que descreve intencionalmente uma resposta negativa de alguém, geralmente online.

Os autores identificaram trolls com uma variedade de formas de conduta comumente consideradas inaceitáveis on-line, como assédio, doxxing (revelar informações pessoais de alguém) e denunciar falsamente violações de conteúdo.

No entanto, um dos “comportamentos destrutivos” descritos pelos autores foi também o dos “normies da pílula vermelha que querem converter o público à sua visão de mundo”.

“Pílula Vermelha”, um coloquialismo comumente associado à direita política, originou-se como uma referência ao filme de 1999 “The Matrix” e descreve um confronto com fatos chocantes e difíceis de aceitar que forçam a pessoa a reavaliar suas crenças.

“Normie” é um termo usado em algumas plataformas de discussão on-line, como a 4chan, para descrever “um indivíduo que é considerado um chato convencional ou mainstream por aqueles que se identificam como não-conformistas”, de acordo com KnowYourMeme.com.

Como exemplo de tal “pílula Vermelha”, os autores postaram um link para o vídeo do YouTube “Por que a Justiça Social é o CANCER? Identidade política, igualdade e marxismo ”, de Lauren Chen, também conhecida como “ Roaming Millennial ”.

Em uma resposta em vídeo ao lançamento do documento, Chen disse que ficou confusa com a escolha dos autores para destacar seu vídeo, que ela descreveu como “super, super manso”.

“Essencialmente, eu estou argumentando que a justiça social é tóxica porque promove o tribalismo sobre a individualidade e porque isso afasta o conceito de igualdade de oportunidades para os indivíduos”, disse ela.

Chen reconheceu que ela escolheu um título provocativo, mas também começou o vídeo explicando que ela não equaciona literalmente “justiça social” com câncer. “É frustrante que eu precise explicar coisas como hipérbole e metáfora”, disse ela.

Não parece que os telespectadores de Chen também se sentiram “controlados” – o vídeo teve cerca de 11.000 curtidas contra menos de 500 pessoas que não gostaram em 28 de fevereiro.

Ela também discordou da aparente crença dos autores de que converter pessoas à cosmovisão é objetável.

“Isso é essencialmente envolver-se em debater e discutir ideias”, disse ela. “Como isso é um comportamento de troll? Sob qual lógica você pode agrupar alguém que está tentando converter alguém para sua visão de mundo, o que qualquer um faz quando está discutindo um assunto político com o qual se importa, como você agrupa isso como sendo um troll? Isso está tão distante do que é o troll real. Quero dizer, os debates presidenciais são “comportamento de trolls”?

Ela então foi um passo adiante, questionando se os autores consideravam seu vídeo “destrutivo” porque era, de fato, persuasivo.

Punições

Yamamoto e de la Rubia sugeriram estabelecer um “cache de memes tóxico” e bloquear e suprimir imagens que correspondam ao “cache”.

Eles também recomendaram desenvolver um programa que pudesse “prever” se um usuário é um troll, entre outras coisas, vasculhando o idioma do usuário para palavras como “cuck, zucced, REEE, normie, IRL, lulz, Shadilay, etc” dos quais são gírias comuns usadas por algumas comunidades online.

Eles propuseram direcionar contas trolls com “largura de banda drasticamente limitada por algumas horas”, o que retardaria o funcionamento do Facebook para o usuário, além de desconectar o usuário ou redirecionar o usuário para sua página inicial do Facebook a cada poucos minutos.

Eles também propuseram fazer com que “comentários e postagens que [os usuários] gastam tempo criando falharão magicamente no upload”.

Ação “deboost”

Outras fotografias do informante mostram que algumas páginas do Facebook foram marcadas com o código “SI (Sigma):! ActionDeboostLiveDistribution”, que o informante acreditava que era para suprimir a distribuição de vídeos transmitidos ao vivo por essas páginas. O código foi visto em páginas pertencentes ao autor e cineasta direitista Mike Cernovich, ao comediante e comentarista conservador Steven Crowder e ao site de notícias The Daily Caller. A fonte disse que verificou várias páginas pertencentes a figuras e entidades esquerdistas, como os Young Turks e Colin Kaepernick, e descobriu que elas não incluíam a codificação.

As fotos do insider “parecem legítimas”, disse Brian Amerige, ex-engenheiro sênior do Facebook, ao Epoch Times por meio do aplicativo Facebook Messenger. Ele hesitou em confiar no Projeto Veritas, uma organização sem fins lucrativos de direita, como fonte, e disse que não via a tecnologia de “desmantelamento” com seus próprios olhos. Ele opinou, no entanto, que “o ‘desmantelamento’ provavelmente está acontecendo de uma forma ou de outra (por boas e más razões)”.

O Facebook não respondeu a um pedido de comentário.

Discurso de ódio

O discurso de ódio, de acordo com o Facebook, refere-se a declarações depreciativas baseadas nas características protegidas de alguém – raça, etnia, nacionalidade, afiliação religiosa, orientação sexual, sexo, gênero, identidade de gênero, doença grave ou deficiência.

“Todos concordamos que o discurso de ódio precisa ser interrompido”, escreveu Yamamoto em um post interno de 17 de janeiro de 2018, “mas há um pouco de conteúdo perto do perímetro do discurso de ódio que precisamos abordar também”.

No entanto, a empresa reconheceu que, em relação ao discurso de ódio, “não há uma resposta universalmente aceita para quando algo cruza a linha”.

“Para alguns, o humor grosseiro de um líder religioso pode ser considerado tanto uma blasfêmia quanto um discurso de ódio contra todos os seguidores dessa fé”, afirmou em um post de 2017 no blog. “Para outros, uma batalha de insultos baseados em gênero pode ser uma maneira divertida de compartilhar uma risada”.

Em última análise, o Facebook reconhece que o conteúdo verificado pela força de fiscalização, que triplicou desde o ano passado para 30.000, precisa ter um julgamento em cada caso.

Amerige descreveu o clima da empresa no Facebook como uma monocultura política, na qual “os padrões da comunidade do Facebook são caóticos, quase aleatoriamente, reforçados, com escaladas e reversões ocasionais acontecendo quando as falhas são proeminentes o suficiente para causar atenção da mídia”.

Ele disse que durante seu tempo na empresa, ele tentou mudar a cultura de dentro e até mesmo ganhou a atenção da liderança da empresa, mas acabou chegando a um impasse sobre a questão do discurso de ódio.

“O discurso de ódio não pode ser definido de forma consistente e não pode ser implementado de forma confiável, por isso acaba sendo uma série de decisões” pragmáticas “pontuais”, disse ele anteriormente ao Epoch Times. “Acho que é um passo em falso estratégico para uma empresa cujo valor principal do produto é uma ferramenta de liberdade de expressão”.

Siga Petr no Twitter: @petrsvab