Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
As potências estrangeiras estão usando cada vez mais a inteligência artificial (IA) para influenciar o voto dos americanos, de acordo com um novo relatório de inteligência divulgado apenas 45 dias antes da eleição presidencial de 2024.
O Escritório do Diretor de Inteligência Nacional (ODNI, na sigla em inglês) divulgou uma atualização de segurança em 23 de setembro alertando que a China, o Irã e a Rússia estão intensificando seus esforços de influência para moldar a opinião pública nos Estados Unidos usando ferramentas de IA. Esses esforços são consistentes com um aviso anterior emitido pela comunidade de inteligência no início de setembro, já que atores estrangeiros buscam exacerbar as divisões sociais e influenciar os eleitores.
“Esses atores provavelmente julgam que a amplificação de questões controversas e a retórica divisiva podem servir a seus interesses, fazendo com que os Estados Unidos e seu sistema democrático pareçam fracos e mantendo o governo dos EUA distraído com questões internas, em vez de repelir seu comportamento hostil em outras partes do mundo”, diz a atualização de 23 de setembro.
Alguns dos esforços das potências estrangeiras incluem a lavagem de conteúdo enganoso por meio de figuras proeminentes ou a divulgação de “vazamentos” fabricados com o objetivo de parecerem controversos. Embora a IA tenha ajudado a acelerar certos aspectos das operações de influência estrangeira direcionadas aos Estados Unidos, a comunidade de inteligência observa que a IA ainda não revolucionou essas táticas.
Embora a atividade da China tenha sido mais geral — buscando moldar as visões globais da China e amplificando questões políticas polêmicas dos EUA — os esforços do Irã e da Rússia têm usado a IA para criar conteúdo mais diretamente relacionado às eleições americanas.
A Rússia gerou a maior parte do conteúdo de IA relacionado à eleição dos EUA, segundo o relatório da comunidade de inteligência. Os esforços de Moscou abrangem mídias de texto, imagens, áudio e vídeo. As ações do Kremlin envolvem a disseminação de narrativas conspiratórias e conteúdo gerado por IA de figuras proeminentes dos EUA com o objetivo de aprofundar as divisões em questões como a imigração.
O Irã, por outro lado, usou a IA para gerar publicações nas mídias sociais e artigos de notícias não autênticos para sites que se apresentam como fontes legítimas de notícias. Esse conteúdo, que aparece em inglês e espanhol, tem como alvo os eleitores americanos de todo o espectro político, concentrando-se principalmente em questões polêmicas, como o conflito Israel-Gaza e os candidatos à presidência dos EUA.
O uso da IA pela China em suas operações de influência tem como foco principal moldar as percepções sobre a China, em vez de influenciar diretamente as eleições nos EUA, de acordo com o relatório. Os atores chineses também empregaram conteúdo gerado por IA, como âncoras de notícias falsas e perfis de mídia social, para ampliar questões políticas internas dos EUA, como uso de drogas, imigração e aborto, sem apoiar explicitamente nenhum candidato.
Em sua atualização de segurança eleitoral de 6 de setembro, a comunidade de inteligência declarou que, na época, a China estava concentrada principalmente em influenciar as disputas eleitorais e ainda não estava tentando influenciar a corrida presidencial.
O objetivo dos atores estrangeiros continua mais focado em influenciar as percepções do que em interferir diretamente no processo eleitoral real, afirma o último relatório.
O relatório adverte que os adversários provavelmente continuarão aumentando as campanhas de desinformação orientadas por IA à medida que o dia da eleição se aproxima, o que representa um risco para os processos democráticos dos EUA.
Em março, o Epoch Times informou sobre a crescente influência dos memes políticos no discurso eleitoral. Na época, Pamela Rutledge, diretora do Centro de Pesquisa em Psicologia da Mídia, disse ao Epoch Times que as falsificações profundas — que são imagens, vídeos e áudios realistas normalmente criados por um software de IA generativo — podem enganar as pessoas com eficácia.
Mesmo que o conteúdo seja obviamente falso ou de baixa qualidade, Rutledge disse que as mensagens ainda podem ser persuasivas se confirmarem os preconceitos políticos das pessoas.
Uma pesquisa publicada em maio pelo Imagining the Digital Future Center da Elon University constatou que 78% dos americanos acreditam que a eleição presidencial será influenciada por “abusos” relacionados ao conteúdo gerado por IA que se espalha nas mídias sociais.
“Muitos não têm certeza de que podem separar o lixo que sabem que poluirá o conteúdo relacionado à campanha”, disse Lee Rainie, diretor do Digital Future Center, em um comunicado.
Como prova do possível impacto do conteúdo orientado por IA nas eleições, 69% dos participantes da pesquisa disseram ao centro que não estão confiantes de que a maioria dos eleitores possa diferenciar entre fotos fabricadas e autênticas, com porcentagens semelhantes expressando preocupação com a capacidade dos outros de detectar áudio e vídeo falsos.
Austin Alonzo contribuiu para esta reportagem.