STF retoma julgamento sobre a responsabilidade das plataformas pelos conteúdos publicados online

Google e Meta alertam para riscos de censura enquanto o Supremo debate responsabilidade civil nas redes

Por Redação Epoch Times Brasil
04/12/2024 13:31 Atualizado: 04/12/2024 13:31

O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (4) o julgamento sobre a responsabilidade civil das plataformas digitais, uma questão sensível que pode afetar a liberdade de expressão online, ao estabelecer regras mais rigorosas para o controle de conteúdos.

A Corte examina a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que define os direitos e deveres no uso da internet no Brasil.

Esse artigo prevê que as plataformas só podem ser responsabilizadas por postagens ilegais de usuários se, após ordem judicial, não tomarem providências para remover o conteúdo, com o objetivo de garantir a liberdade de expressão e evitar a censura.

O julgamento, iniciado na semana passada, ainda não avançou para um posicionamento majoritário, mas ministros como Alexandre de Moraes e Dias Toffoli indicaram apoio a medidas mais rigorosas, exigindo que as redes sociais removam conteúdos com maior rapidez.

Google e Meta, por sua vez, defendem a preservação de critérios que previnam a censura e a insegurança jurídica.

A resposta da Meta

A Meta refutou as alegações de “inércia” na remoção de conteúdos considerados “prejudiciais”, destacando sua atuação durante o período eleitoral. 

De acordo com a empresa, mais de 2,9 milhões de publicações foram removidas por violação das políticas contra “discurso de ódio”, assédio e outras práticas proibidas.

“Como os números abaixo sobre moderação de conteúdo atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público. Além disso, nosso modelo de negócios não prospera em um ambiente online tóxico: os anunciantes não querem ver suas marcas vinculadas a conteúdos nocivos”, afirmou a plataforma em nota.

A posição do Google

O Google, por sua vez, defendeu suas práticas de moderação de conteúdo, argumentando que a abolição das regras que distinguem a responsabilidade das plataformas e dos usuários não seria eficaz para impedir a circulação de materiais indesejados. 

Para a empresa, uma revisão do Marco Civil da Internet é necessária, mas precisa vir com critérios claros para evitar a censura e garantir a segurança jurídica.

“O Google remove, com eficiência e em larga escala, conteúdos em violação às regras de cada uma de suas plataformas. São centenas de milhões de conteúdos removidos por ano pela própria empresa, em linha com as regras públicas de cada produto.

Entretanto, boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e complexidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade. A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas”, diz a nota da empresa.