Por Petr Svab
Depois que várias fontes corroboraram a longa acusação de que o Google infunde furtivamente suas preferências políticas em seus produtos, a empresa continuou a reivindicar neutralidade, levando a respostas incongruentes de seus executivos ao questionamento dos legisladores.
Uma revelação de 24 de junho do Project Veritas expôs vários funcionários do Google e uma coleção de documentos internos descrevendo os métodos que o Google usou para ajustar seus produtos para, sub-repticiamente, levar seus usuários a uma certa visão de mundo.
Um funcionário até pareceu dizer, quando capturado por uma câmera escondida, que o objetivo do Google era impedir que o presidente Donald Trump, ou qualquer pessoa como ele, fosse eleito novamente – uma afirmação confirmada por outro funcionário que falou sob anonimato.
Porta-vozes do Google não conseguiram produzir uma resposta oficial, mas dois de seus executivos foram questionados sobre as revelações – uma em uma audiência do Senado em 25 de junho e outra em uma audiência no dia seguinte.
Durante a audiência do Comitê de Segurança Doméstica de 26 de junho, a deputada Debbie Lesko (R-Ariz.) confrontou Derek Slater, diretor global de políticas de informação do Google, com um dos documentos vazados sobre “injustiça algorítmica”.
“Imagine que uma consulta de imagem do Google para” CEOs “mostre predominantemente homens. Mesmo que fosse uma representação factualmente precisa do mundo, seria uma injustiça algorítmica”, diz o documento, explicando que, em alguns casos,“ pode ser desejável considerar como poderíamos ajudar a sociedade a alcançar um estado mais justo e equitativo, via… intervenção no produto”.
“O que isso significa Sr. Slater?” Lesko perguntou.
“Eu não estou familiarizado com o slide específico”, disse ele. “Mas acho que estamos chegando lá quando estamos projetando nossos produtos, mais uma vez, estamos projetando para todos. Temos um conjunto robusto de diretrizes para garantir o fornecimento de informações relevantes e confiáveis. Trabalhamos com um grupo de avaliadores em todo o mundo, em todo o país, para garantir que essas Diretrizes para o Search Rater sejam seguidas, que sejam transparentes e estejam disponíveis para você ler na Web”.
“Tudo certo. Bem, eu pessoalmente não acho que tenha respondido à pergunta” disse ele.
Da mesma forma, Maggie Stanphill, chefe do Digital Wellbeing do Google, foi questionada pelo membro do Comitê de Comércio do Senado, Ted Cruz (R-Texas) no dia anterior.
Ele perguntou se Stanphill concordou com uma citação de um dos documentos vazados dizendo que o Google deveria “intervir por justiça” em seus algoritmos de aprendizado de máquina. Stanphill disse que ela não concordava com isso.
Mas o Google já colocou em prática a doutrina da “justiça”, com base no que dizem os funcionários e os documentos do relatório do Project Veritas.
“Injustiça algorítmica”
“Nosso objetivo é criar uma definição de toda a empresa de injustiça algorítmica que… estabelece uma compreensão compartilhada de injustiça algorítmica para uso no desenvolvimento de ferramentas de medição, política de produtos, resposta a incidentes e outras funções internas”, diz um documento atualizado pela última vez em Fevereiro de 2017.
“O que eles estão realmente dizendo sobre justiça é que eles têm que manipular seus resultados de pesquisa para que eles tenham a agenda política que eles querem”, disse o insider não identificado.
Por exemplo, quando alguém digita na barra de pesquisa do Google “homens podem” e cria um espaço, o mecanismo de pesquisa sugere frases como: “homens podem ter bebês”, “homens podem engravidar” e “homens podem ter menstruação”.
Quando alguém digita “mulheres podem” e faz um espaço, as sugestões mostrariam frases como: “mulheres podem votar”, “Mulheres podem fazer qualquer coisa” e “mulheres podem ser recrutadas”.
Isso não acontece porque essas frases são tão populares entre os usuários, mas porque o algoritmo de “justiça” as tirou das chamadas “fontes de verdade” – elas refletem a narrativa política que o Google deseja, disse o informante.
Além disso, o Google adotou a doutrina, mantendo seus usuários no escuro, disse ele. Um dos documentos diz que “não é um objetivo neste momento liberar essa definição [de injustiça algorítmica] externamente”.
Viés Conhecido
O Google e outras plataformas de tecnologia, incluindo o Facebook e o Twitter, endossaram publicamente um modelo de policiamento de conteúdo que reflete certas inclinações políticas.
Todos eles, por exemplo, proíbem o “discurso do ódio”, um conceito muito mais amplamente adotado pela esquerda política, mostrou uma pesquisa do Cato de 2017.
Além disso, o conceito é tão subjetivo que é impossível aplicar de forma justa e imparcial, disse Nadine Strossen, professora de direito e ex-presidente da American Civil Liberties Union.
“Mesmo que tenhamos moderação de conteúdo que seja reforçada com os princípios mais nobres e as pessoas estejam se esforçando para ser justas e imparciais, é impossível”, disse ela, prestando depoimento na audiência da Câmara em 26 de junho. “Esses chamados padrões são irredutivelmente subjetivos. O que é o discurso de ódio de uma pessoa… é o discurso amoroso de alguém. ”
“Eu li todas as palavras dos padrões [políticas de conteúdo] do Facebook e quanto mais você as lê, mais complicado é. E não há dois aplicadores do Facebook concordando uns com os outros e nenhum de nós também. Então isso significa que estamos confiando a alguma outra autoridade o poder de tomar decisões que deveriam residir em cada um de nós como indivíduos, sobre o que escolhemos ver e o que escolhemos não ver e o que escolhemos para usar nossa própria liberdade de expressão e direitos de resposta. ”
Embora as empresas privadas, mesmo as grandes e influentes como o Google e o Facebook, não sejam obrigadas a proteger a liberdade de expressão para o indivíduo, “é incrivelmente importante que elas sejam encorajadas a fazê-lo”, disse ela.
“Tenho sérias dúvidas sobre a capacidade do Google de ser justa e equilibrada quando parece que o YouTube conspirou para silenciar a cobertura negativa da imprensa”, disse Rogers em seu comunicado inicial. “Regular o discurso rapidamente se torna um exercício subjetivo para o governo ou para o setor privado. Intenções nobres muitas vezes dão lugar a preconceitos e agendas políticas. ”
Trump comentou brevemente a questão durante uma entrevista de 26 de junho à Fox Business.
“Eles estão tentando fraudar a eleição”, disse ele, sugerindo que o Google “deveria ser processado”.
Strossen sugeriu que, em vez de censurar, o conteúdo ofensivo e falso deve ser combatido tanto quanto possível, por meio da “alfabetização midiática”, contra fala, “ferramentas de empoderamento do usuário” e “por meio de transparência radicalmente aumentada”.
Siga Petr no Twitter: @petrsvab