Ferramenta de detecção de informação incorreta financiada por Ottawa no Canadá se baseia em inteligência artificial

Por Noé Chartier
02/08/2024 19:58 Atualizado: 02/08/2024 19:58
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

Ottawa anunciou que uma nova ferramenta financiada pelo governo federal que está sendo desenvolvida para ajudar os canadenses a detectar informações errôneas on-line se baseará em inteligência artificial (IA).

A ministra do Patrimônio, Pascale St-Onge, disse em 29 de julho que Ottawa está fornecendo cerca de US$300.000 a pesquisadores da Université de Montréal (UdeM) para desenvolver a ferramenta.

“As pesquisas confirmam que a maioria dos canadenses está muito preocupada com o aumento das informações errôneas e das desinformações”, escreveu St-Onge escreveu nas mídias sociais. “Estamos lutando para que os canadenses obtenham os fatos”, apoiando o projeto independente da universidade, acrescentou ela.

O Canadian Heritage diz que o projeto desenvolverá um site e uma extensão de navegador da Web dedicados à detecção de informações errôneas.

O departamento afirma que o projeto usará grandes modelos de linguagem de IA capazes de detectar informações incorretas em diferentes idiomas, em vários formatos, como texto ou vídeo, e contidas em diferentes fontes de informação.

“Essa tecnologia ajudará a implementar estímulos comportamentais eficazes para mitigar a proliferação de histórias de ‘notícias falsas’ em comunidades on-line”, diz a Canadian Heritage.

Com a extensão do navegador, os usuários serão notificados se encontrarem possíveis informações incorretas, o que, segundo o departamento, reduzirá a probabilidade de o conteúdo ser compartilhado.

O líder do projeto e professor da UdeM, Jean-François Godbout, disse ao The Epoch Times em um e-mail que a ferramenta dependerá principalmente de sistemas baseados em IA, como o ChatGPT da OpenAI.

“O sistema usa principalmente um modelo de linguagem grande, como o ChatGPT, para verificar a validade de uma proposição ou declaração com base em seu corpus (os dados que serviram para seu treinamento)”, escreveu Godbout em francês.

O professor do departamento de ciências políticas acrescentou que o sistema também poderá consultar “fontes externas distintas e confiáveis”. Depois de considerar todas as informações, o sistema produzirá uma avaliação para determinar se o conteúdo é verdadeiro ou falso, disse ele, ao mesmo tempo em que qualifica seu grau de certeza.

Godbout disse que a justificativa para a decisão será fornecida ao usuário, juntamente com as referências nas quais ele se baseou e que, em alguns casos, o sistema pode dizer que não há informações suficientes para fazer um julgamento.

Questionado sobre as preocupações de que o modelo de detecção poderia ser contaminado por deficiências de IA, como parcialidade, Godbout disse que sua pesquisa anterior demonstrou que suas fontes “não são significativamente tendenciosas do ponto de vista ideológico”.

“Dito isso, nosso sistema deve contar com uma variedade de fontes, e continuamos a explorar o trabalho com fontes diversificadas e equilibradas”, disse ele. “Sabemos que os modelos generativos de IA têm seus limites, mas acreditamos que eles podem ser usados para ajudar os canadenses a obter melhores informações.”

O professor disse que a pesquisa fundamental por trás do projeto foi realizada antes de receber o subsídio federal, que apoia apenas o desenvolvimento de um aplicativo da Web.

Preocupações com preconceitos

A confiança na IA para determinar o que é verdadeiro ou falso pode ter algumas armadilhas, com grandes modelos de linguagem sendo criticados por terem vieses políticos.

Essas preocupações sobre a neutralidade da IA foram levantadas pelo bilionário Elon Musk, que é proprietário da X e de seu chatbot de IA Grok.

Pesquisadores britânicos e brasileiros da Universidade de East Anglia publicaram um estudo em janeiro, que buscou medir o viés político do ChatGPT.

“Encontramos evidências robustas de que o ChatGPT apresenta um viés político significativo e sistemático em relação aos democratas nos EUA, a Lula no Brasil e ao Partido Trabalhista no Reino Unido”, escreveram eles. Os pesquisadores disseram que há preocupações reais de que o ChatGPT e outros grandes modelos de linguagem em geral possam “estender ou até mesmo ampliar os desafios existentes envolvendo processos políticos apresentados pela Internet e pelas mídias sociais”.

OpenAI afirma que o ChatGPT “não está livre de preconceitos e estereótipos, portanto, usuários e educadores devem analisar cuidadosamente seu conteúdo”.

Informações errôneas e desinformação

As iniciativas do governo federal para combater as informações incorretas têm sido multifacetadas.

Os fundos fornecidos à Université de Montréal fazem parte de um programa maior para moldar as informações on-line, a Digital Citizen Initiative. O programa apoia pesquisadores e organizações da sociedade civil que promovem um “ecossistema de informações saudável”, de acordo com o Canadian Heritage.

O governo liberal também aprovou projetos de lei importantes, como o C-11 e o C-18, que afetam o ambiente de informações.

O C-11 reformulou o Broadcasting Act, criando regras para a produção e descoberta de conteúdo canadense e dando mais poderes regulatórios à CRTC sobre o conteúdo on-line.

O C-18 criou a obrigação de grandes plataformas on-line compartilharem receitas com organizações de notícias para a exibição de links. Essa legislação foi promovida pelo então Ministro do Patrimônio Pablo Rodriguez como uma ferramenta para fortalecer a mídia de notícias em um “momento de maior desconfiança e desinformação”.

Esses dois projetos foram seguidos pelo Projeto de Lei C-63 em fevereiro, para promulgar o Online Harms Act. Além de procurar proteger melhor as crianças on-line, essa lei criaria penalidades severas para quem dissesse coisas consideradas odiosas na Web.

Há alguma confusão sobre o que a mais recente iniciativa com a Université de Montréal visa especificamente, com o Canadian Heritage dizendo que o projeto visa combater informações incorretas, enquanto a universidade diz que seu objetivo é a desinformação. Os dois conceitos são frequentemente usados na mesma frase quando as autoridades sinalizam a intenção de reprimir o conteúdo que consideram inadequado, mas uma característica fundamental distingue os dois.

O Centro Canadense de Segurança Cibernética define informações incorretas como “informações falsas que não têm a intenção de causar danos”, o que significa que ela pode ter sido publicada inadvertidamente.

Enquanto isso, o Centro define a desinformação como sendo “destinada a manipular, causar danos e orientar pessoas, organizações e países na direção errada”. Ela pode ser criada por atores sofisticados de estados estrangeiros que buscam obter ganhos políticos.

O gabinete do Ministro St-Onge não respondeu a um pedido de esclarecimento até o horário da publicação.

Ao descrever seu projeto para combater a desinformação, a Université de Montréal disse que eventos como a violação do Capitólio em 6 de janeiro, o referendo do Brexit e a pandemia da COVID-19 “demonstraram os limites dos métodos atuais para detectar notícias falsas, que têm dificuldade em acompanhar o volume e a rápida evolução da desinformação”.

A Canadian Press contribuiu para esta reportagem.