OpenAI interrompe operações de influência ligadas à China, Rússia e outros

Os atores por trás dessas operações usaram ferramentas da OpenAI para gerar comentários, produzir artigos ou criar nomes ou biografias falsas para contas de mídia social.

Por Aaron Pan
03/06/2024 00:29 Atualizado: 03/06/2024 00:29
Matéria traduzida e adaptada do inglês, originalmente publicada pela matriz americana do Epoch Times.

A OpenAI anunciou que interrompeu cinco operações de influência de quatro países, utilizando as suas ferramentas de inteligência artificial (IA) para manipular a opinião pública e moldar resultados políticos na Internet.

A empresa disse em 30 de Maio que estas operações de influência secreta eram da Rússia, China, Irã e Israel. Os atores por trás dessas operações usaram ferramentas OpenAI para gerar comentários, produzir artigos ou criar nomes ou biografias falsas para contas de mídia social nos últimos três meses.

O relatório descobriu que o conteúdo impulsionado por estas operações visa múltiplas questões em curso, incluindo críticas ao regime chinês por parte de dissidentes chineses e governos estrangeiros, a política dos EUA e da Europa, a invasão da Ucrânia pela Rússia e o conflito em Gaza.

No entanto, tais operações não atingiram seus objetivos, aumentando significativamente o envolvimento do público devido aos serviços da empresa, disse a OpenAI em comunicado.

A empresa encontrou tendências desses atores usando suas ferramentas de IA, incluindo geração de conteúdo, misturando o antigo e o novo entre materiais gerados por IA e outros tipos de conteúdo, fingindo engajamento criando respostas para suas próprias postagens sociais e aumento de produtividade, como resumir postagens em mídias sociais.

Rede pró-Pequim

A OpenAI disse que interrompeu a operação da rede de desinformação e propaganda pró-Pequim Spamouflage na China. A operação chinesa usou o modelo de IA da empresa para buscar aconselhamento sobre atividades de mídia social, pesquisar notícias e eventos atuais e gerar conteúdo em chinês, inglês, japonês e coreano.

Grande parte do conteúdo gerado pela rede Spamouflage são tópicos que elogiam o regime comunista chinês, criticam o governo dos EUA e têm como alvo os dissidentes chineses.

Esse conteúdo foi postado em diversas plataformas sociais, incluindo X, Medium e Blogspot. A OpenAI descobriu que, em 2023, a operação chinesa gerou artigos que afirmavam que o Japão poluiu o meio ambiente ao liberar águas residuais da usina nuclear de Fukushima. O ator e ativista tibetano Richard Gere e o dissidente chinês Cai Xia também são alvos desta rede.

A rede também usou o modelo OpenAI para depurar código e gerar conteúdo para um site em chinês que ataca dissidentes chineses, chamando-os de “traidores”.

No ano passado, o Facebook descobriu ligações entre a Spamouflage e as autoridades chinesas, observando que o grupo tem promovido campanhas pró-Pequim nas redes sociais desde 2018. A empresa excluiu cerca de 7.700 contas do Facebook e uma centena de páginas e contas do Instagram envolvidas em operações de influência que promoveram narrativas positivas sobre Pequim e comentários negativos sobre os Estados Unidos e críticos do regime chinês.

Operações Rússia, Israel e Irã

A OpenAI também encontrou duas operações da Rússia, uma das quais é Doppelganger. Esta operação utilizou ferramentas OpenAI para gerar comentários em vários idiomas e postar no X e 9GAG. A Doppelganger também usou ferramentas de IA para traduzir artigos em inglês e francês e transformá-los em postagens no Facebook.

A empresa disse que a outra é uma rede russa até então não divulgada, a Bad Grammar, que opera principalmente no Telegram e se concentra na Ucrânia, na Moldávia, nos Estados Unidos e nos Países Bálticos. Ele usou ferramentas OpenAI para depurar o código de um bot do Telegram que publica automaticamente informações nesta plataforma. Esta campanha gerou breves comentários políticos em russo e inglês sobre a guerra Rússia-Ucrânia e a política dos EUA.

Além disso, a empresa controladora do ChatGPT encontrou uma operação de Israel relacionada à empresa de marketing político STOIC, com sede em Tel Aviv, e outra do Irã. Ambos usaram ChatGPT para gerar artigos. O Irã publicou o conteúdo em um site relacionado ao site do ator de ameaça iraniano, enquanto Israel postou seus comentários em diversas plataformas, incluindo X, Facebook e Instagram.

Enquanto isso, em 29 de maio, o Facebook lançou um relatório trimestral, revelando que conteúdo enganoso “provavelmente gerado por IA” foi postado em sua plataforma. O relatório indicou que a Meta interrompeu seis operações secretas de influência no primeiro trimestre, incluindo uma rede localizada no Irã e outra da empresa israelita STOIC.

A OpenAI lançou o ChatGPT ao público em novembro de 2022. O chatbot rapidamente se tornou um fenômeno global, atraindo centenas de milhões de usuários impressionados com sua capacidade de responder perguntas e interagir em uma ampla variedade de tópicos.

A OpenAI chamou a atenção da tecnologia global no ano passado, quando seu conselho de administração abruptamente despediu o CEO Sam Altman. A medida gerou reação mundial, forçando o conselho a recontratá-lo e resultando na renúncia da maioria dos membros do conselho e na formação de um novo conselho.