Matéria traduzida e adaptada do inglês, originalmente publicada pela matriz americana do Epoch Times.
Análise
Se a internet fosse o mundo real, poderia muito bem se assemelhar a um filme de ficção científica onde os robôs dominaram o planeta, ou pelo menos começaram a viver ao lado dos seres humanos.
Um sinal revelador dessa fusão entre os reinos orgânico e robótico são as imagens absurdas geradas por inteligência artificial (IA) que aparecem nas contas de mídia social.
Algumas assumem a forma de imagens que mostram filhotes dormindo em uma caixa na chuva, implorando aos usuários que compartilhem.
Outras mostram crianças em extrema pobreza ou zonas de guerra.
Às vezes, ao observar mais de perto, essas “crianças” têm três membros, seis dedos ou dois narizes — resultado de uma IA que pode armazenar informações, mas carece do conhecimento humano sobre o que compõe um corpo real.
Então, há criações de IA que não fazem nenhuma tentativa de se disfarçar como filhotes de rua ou crianças tristes, como a moda do “Jesus camarão”.
Imagens de Jesus Cristo misturado de várias maneiras com camarões começaram a inundar as mídias sociais, acumulando um número impressionante de compartilhamentos, curtidas e comentários em algo que alguns agora chamam de “hackeamento de engajamento”.
Seus amigos nas redes sociais são humanos ou bots de IA?
Especificamente, uma IA cria uma imagem destinada a afetar as emoções das pessoas ou a explorar seu desejo de comentar ou interagir, criando polêmicas ou pontos de discussão. Essas imagens são comentadas por contas adicionais de IA em um fórum essencialmente administrado por robôs, povoado por e para outros robôs.
No caso das imagens de Jesus camarão, seu nível de absurdo surreal estimula incontáveis “curtidas” e interações, impulsionando os perfis em que aparecem e enganando o algoritmo do Facebook, fazendo-o pensar que são uma fonte digna de engajamento.
A questão para as pessoas é se o motivo é simplesmente gerar receita publicitária por meio do impulsionamento de perfis com tal magia digital, ou se pode haver mais em jogo.
Já está ficando óbvio que algumas formas de mídia estão percebendo o risco dos bots de IA.
Na votação para o Festival Eurovisão da Canção de 2024, os espectadores foram solicitados a votar enviando uma pequena taxa por meio de um cartão bancário — um desenvolvimento relativamente novo no concurso de canções.
É o mesmo conceito que subjaz aos devaneios de Elon Musk sobre cobrar uma taxa para usar a plataforma de mídia social X, anteriormente o Twitter.
O engajamento de bots se tornou uma ameaça tão grande que muitas plataformas estão buscando uma maneira de provar que a força por trás de um processo informatizado é humana — e em alguns casos, está se mostrando um desafio.
Humanos suscetíveis a serem influenciados, diz cientista
Ian Oppermann é o cientista-chefe de dados do governo de Nova Gales do Sul e ele diz que a situação é um exemplo perfeito de uma corrida armamentista digital onde a IA pode ser tanto a causa quanto a resposta para o problema.
Ele diz que as “curtidas” são uma maneira simples das pessoas demonstrarem interesse em um espaço digital, e a maioria das redes sociais assume que as curtidas vieram de um humano.
Ao contrário dos robôs, os humanos são “criaturas do rebanho”, disse o Sr. Oppermann ao The Epoch Times, o que os torna suscetíveis a serem manipulados.
Essa manipulação poderia influenciar a compra de um produto ou poderia influenciar o resultado de uma eleição.
Mais “curtidas” em uma página significam que é provável que seja vista por mais usuários, e um produto ou serviço altamente avaliado atrairá mais clientes — o que significa que a corrida é para garantir a atenção dos humanos no mundo virtual.
O fato de que pode ser falsificado significa que os gigantes da tecnologia podem precisar começar a pensar em “proteger” as curtidas contra robôs, fazendo com que os usuários marquem uma caixa ou selecionem imagens.
“Mesmo essas barreiras, no entanto, eventualmente serão derrotadas pela IA”, disse o Sr. Oppermann. “Isso leva à necessidade de repensar como as pessoas podem facilmente mostrar apreciação, ou de forma menos satisfatória, podem facilmente identificar se uma análise ou uma série de ‘curtidas’ é falsa.”
Em teoria, a IA poderia ser desenvolvida para detectar e remover curtidas falsas, ou fornecer desincentivos para o uso de algoritmos impulsionados por IA.
Uma década de pesquisa sobre manipulação online
O uso de IA na manipulação de seres humanos pode ser uma discussão recente, mas é uma ciência antiga.
Em 2012, o Facebook conduziu um estudo de uma semana para testar a manipulação de feeds de notícias com base em emoções humanas.
Resultados foram publicados dois anos depois no Proceedings of the National Academy of Sciences.
O estudo selecionou aleatoriamente quase 700.000 usuários e descobriu que alterar o algoritmo para mostrar aos usuários postagens positivas ou negativas de seus amigos resultou em seu humor sendo ditado pelo conteúdo ao qual foram expostos.
O estudo concluiu que postagens positivas foram refletidas em postagens mais felizes pelos sujeitos, enquanto a exposição à negatividade também foi refletida com mais negatividade.
O Sr. Oppermann disse que os humanos eram altamente suscetíveis a “empurrões sutis” e que as imagens poderiam ser especialmente influentes nas pessoas, ainda mais do que as palavras.
“Controlar a mídia e a mensagem tem sido usado há muito tempo para influenciar a opinião pública”, disse ele.
“A manipulação algorítmica do que as pessoas veem (ou não veem) é uma maneira poderosa de influenciar a visão de mundo de alguém.
“Se puder ser altamente personalizado, então opiniões sobre qualquer tópico ou questão podem ser potencialmente influenciadas.”
Fantasma da Desinformação de IA em torno das eleições da UE
Enquanto os internautas interagiam com imagens surreais no Facebook, as implicações do uso dessa mesma tecnologia no mundo real têm causado noites sem dormir para especialistas na Europa.
Os eleitores da União Europeia (UE) começaram a eleger legisladores nesta semana, com a ameaça da desinformação online pairando no ar.
Isso gerou um aviso do chefe de política externa da UE, Josep Borrell, que sugeriu que a Rússia estava usando campanhas patrocinadas pelo estado para inundar o espaço de informação da UE com conteúdo enganoso, de acordo com a AAP.
É algo que o Sr. Borrell considera uma ameaça genuína para o estado da democracia, com campanhas baratas de IA mirando em líderes que foram críticos ao presidente russo Vladimir Putin.
Embora possa parecer que a ameaça da IA se tornou onipresente, a solução, segundo os especialistas, não é levar as coisas ao pé da letra.
“Não usar mídias sociais é uma opção, no entanto, se isso for um passo muito drástico, verificar com outras fontes não relacionadas (e, portanto, esperançosamente, com viés diferente) é sempre uma boa ideia”, disse o Sr. Oppermann.
Reguladores tomando medidas
No ano passado, um advogado nos Estados Unidos foi multado por enganar um tribunal depois que um bot de IA, ChatGPT, foi usado para pesquisar um caso.
Em Hong Kong, um funcionário de finanças foi fraudado por um golpe de deepfake onde todos os outros em uma videoconferência eram IA.
A formulação de possíveis danos e reversibilidade são dois elementos principais do Quadro de Garantia de IA de Nova Gales do Sul.
Dois anos atrás, o quadro se tornou obrigatório para todos os projetos que contenham um componente de IA ou que utilizem ferramentas impulsionadas por IA.
Nos últimos dias, o governo australiano introduziu leis sobre deepfake que poderiam resultar em sete anos de prisão pela distribuição de imagens sexualmente explícitas e falsas geradas por IA.
Enquanto os reguladores dos EUA acabaram de lançar investigações sobre Nvidia, Microsoft e OpenAI em seu papel no desenvolvimento de IA.
O Sr. Oppermann disse que era vital lembrar que a IA se resumia ao uso de dados.
Ele acredita que o Quadro de Garantia de IA de Nova Gales do Sul, no qual trabalhou, explora os riscos relevantes e as mitigação.
Tudo se resume à informação e como ela é usada — principalmente o uso de dados na IA e os viéses associados ao algoritmo (a IA).
No ano passado, o Ministro da Indústria e Ciência, Ed Husic, divulgou orientações do Conselho Nacional de Ciência e Tecnologia (NSTC) e um documento de discussão sobre IA, dizendo que era hora de começar a considerar mais regulamentações.
A Associação Australiana de Informação da Indústria diz acreditar que as organizações devem se autorregular quanto à legislação de IA na ausência de leis governamentais, enquanto o governo deve atuar como um facilitador e adotador de soluções.