Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
Os Estados Unidos e outros países “devem se preparar para essa manipulação de mídia social impulsionada por IA” adotando medidas de redução de riscos, promovendo a alfabetização midiática e a confiabilidade do governo, aumentando a divulgação pública e a coordenação diplomática, de acordo com o estudo publicado em 1º de outubro.
É o primeiro relatório focado no planejamento e nas estratégias por trás das campanhas de influência do Partido Comunista Chinês (PCChh) nas mídias sociais.
Os pesquisadores investigaram Li Bicheng, um pesquisador afiliado às forças armadas chinesas e um dos principais especialistas em manipulação de mídia social em massa, que se acredita ser responsável, pelo menos em parte, pela adoção dessas tecnologias pelo regime. O estudo também extraiu evidências de mais de 220 artigos em chinês de revistas acadêmicas e mais de 20 artigos em inglês de conferências internacionais escritos por Li.
Entre as principais conclusões estão que o PCCh começou a desenvolver recursos de manipulação de mídia social na década de 2010, está “claramente interessado em aproveitar a IA” para essas campanhas, que os pesquisadores militares chineses estão realizando um trabalho de ponta e que o PCCh está bem posicionado para executar essas campanhas de manipulação em larga escala.
Os pesquisadores observam que as atividades de IA do PCCh são contrárias às declarações públicas do regime, nas quais as autoridades declararam abertamente sua oposição ao uso da IA para desinformação.
Adoção da mídia social
De acordo com os pesquisadores, a resposta inicial do PCCh às revoltas impulsionadas pela mídia social, como a Primavera Árabe, foi reprimir a tecnologia.
Mas também se interessou pelo que via como usos ocidentais de “guerra psicológica on-line” e, em 2013, divulgou documentos de planejamento para que o PCCh “fortalecesse as capacidades de comunicação internacional e construísse um poder de discurso estrangeiro”.
O líder do PCCh, Xi Jinping, fez um discurso naquele ano pedindo para “lançar uma luta pela opinião pública” e com o objetivo de “construir um forte exército cibernético”.
Ele disse que a China é vítima de acusações vindas do Ocidente e afirmou que a retaliação era justificada.
“Devemos realizar propaganda externa de forma meticulosa e adequada” e inovar, disse Xi.
Nos anos seguintes, houve a criação de novos departamentos voltados para a propaganda on-line em vários órgãos do PCCh, bem como uma maior colaboração entre departamentos em campanhas de influência estrangeira.
Entre 2017 e 2018, os esforços em larga escala patrocinados pelo Estado estavam visando ativamente grupos estrangeiros. Os pesquisadores acreditam que a campanha de desinformação “spamuflagem“, que foi identificada como uma iniciativa liderada pelo PCCh em 2023, começou durante esse período. Em 2018, Taiwan também acusou os militares chineses de manipulação de mídia social para interferir nas eleições de Taiwan, a primeira acusação pública desse tipo.
As campanhas de desinformação nas mídias sociais “explodiram” em 2019, de acordo com o relatório, e foram amplamente usadas durante os protestos de Hong Kong, depois na pandemia de COVID-19 e, mais tarde, nas eleições de meio de mandato de 2022 nos EUA.
Campo de testes para IA
Em 2023, Li Bicheng escreveu em um estudo que a postagem artificial nas mídias sociais ainda era ineficiente, e o regime ainda precisava contar com o trabalho humano nesses esforços. Ele estava pesquisando maneiras de utilizar a IA para substituir os usuários de mídia social do “exército de 50 centavos”, acreditando que isso ajudaria o PCCh a obter “a vantagem da opinião pública em futuras guerras informatizadas”.
Li estabeleceu um processo de seis etapas: descobrir e adquirir informações importantes; preparar e selecionar suportes de mídia apropriados; produzir conteúdo personalizado para cada uma das plataformas on-line visadas; selecionar o momento, o modo de entrega e as etapas apropriados; fortalecer a disseminação em várias fontes formando “hotspots“; e moldar ainda mais o ambiente e expandir a influência.
Sua pesquisa nos últimos anos tem sido um amplo esforço para reunir várias tecnologias que possam automatizar essas várias etapas, de acordo com os pesquisadores, para criar publicações inteligentes que possam ser implantadas automaticamente nas mídias sociais da maneira mais eficaz e personalizada para os públicos-alvo.
Os pesquisadores patrocinados pelo PCCh também estão desenvolvendo um ambiente simulado, ou “super-rede”, para testar esses recursos de IA — para ver se o conteúdo gerado pela IA tem o efeito desejado de influenciar a opinião pública na direção pretendida.
“O ambiente simulado aproveita os dados existentes no mundo real, a ciência cognitiva e a modelagem de rede”, diz o relatório.
“Argumentamos que a tecnologia LLM [modo de linguagem grande] atual é suficiente para conduzir o sistema automatizado de orientação da opinião pública proposto por Li; a China provavelmente tem a capacidade de operacionalizar o sistema.”
Se o PCCh já tivesse começado a trabalhar nas tecnologias discutidas nos estudos de 2023, ele estaria pronto e apto a visar as próximas eleições presidenciais, dizem os pesquisadores.
Algumas evidências de campanhas de desinformação geradas por IA e ligadas ao PCCh já surgiram em 2023, de acordo com o relatório, como imagens geradas por IA do incêndio florestal no Havaí e uma campanha de influência no YouTube que promoveu narrativas pró-China e anti-EUA em tópicos que incluem uma “guerra tecnológica EUA-China” e geopolítica.
O think tank Australian Strategic Policy Institute concluiu que a campanha, que acumulou cerca de 120 milhões de visualizações no YouTube até dezembro de 2023, foi “uma das operações de influência mais bem-sucedidas relacionadas à China já testemunhadas nas mídias sociais”.
Os pesquisadores da RAND esperam ver um aumento nos bots de mídia social fazendo uso de IA generativa no futuro e recomendaram que as autoridades dos EUA e as plataformas de mídia social reduzam o risco investindo em maneiras de detectar e exigir a rotulagem de conteúdo gerado por IA.
Os resultados do estudo não capturam a escala das operações de influência digital do PCCh, observaram os pesquisadores.
“É importante observar que a manipulação de mídias sociais é apenas uma das muitas ferramentas dentro do kit de ferramentas mais amplo de operações de influência estrangeira do PCCh e que os militares chineses são apenas um dos muitos atores que provavelmente conduzem essas atividades em nome do partido-estado”, diz o relatório.