O Reino Unido deve implementar um sistema de relatório de incidentes de IA, afirma Think Tank

Por Adam Brax
27/06/2024 20:18 Atualizado: 27/06/2024 20:18
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

O governo britânico deveria introduzir um sistema para registrar o uso indevido e o mau funcionamento da inteligência artificial (IA), a fim de minimizar problemas e perigos de longo prazo, de acordo com um relatório do Centro de Resiliência de Longo Prazo (CLTR) publicado na quarta-feira.

Um think tank com sede em Londres recomenda que o novo governo deve criar um sistema de “relatórios de incidentes” que possa ser monitorizado para desenvolver melhor a forma como a IA é regulamentada e implementada.

Num mundo tecnológico em rápido desenvolvimento, o relatório sugere que a não implementação do regime poderia levar o Reino Unido a estar mal preparado para incidentes graves, o que poderia causar danos prejudiciais à sociedade.

Constatou que foram registrados mais de 10 mil incidentes de segurança envolvendo sistemas ativos de IA desde 2014. A base de dados de incidentes de IA foi compilada pelo organismo de investigação internacional, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE).

Um exemplo do arquivo inclui um bot – um robô de programação que realiza funções diversas – de IA que permitia aos assinantes gerar nudes falsos não consensuais de mulheres e era usado para “despir” meninas menores de idade. Outro exemplo foi quando o algoritmo do YouTube fracassou em remover vídeos relacionados a suicídio e automutilação, que expunham crianças a conteúdos nocivos e explícitos.

Uma lacuna crítica

O novo relatório também identificou uma “lacuna crítica” na regulamentação da IA ​​no Reino Unido, que poderia causar “danos generalizados” ao povo britânico se não fosse abordada de forma adequada.

CLTR sugere que o Departamento de Ciência, Inovação e Tecnologia (DSIT) do Reino Unido “não terá visibilidade” sobre potenciais incidentes dentro do uso de IA pelo próprio governo do Reino Unido em serviços públicos, observando um incidente em que as autoridades fiscais holandesas usaram um sistema defeituoso para detectar fraude em benefícios, deixando 26 mil famílias em dificuldades financeiras imediatas.

O think tank também enfatizou preocupações sobre a falta de conscientização em torno de “campanhas de desinformação e desenvolvimento de armas biológicas”, que afirma poderem exigir “respostas urgentes para proteger os cidadãos do Reino Unido”.

“O DSIT carece de uma imagem central e atualizada destes tipos de incidentes à medida que surgem”, afirma o relatório.

“Embora alguns reguladores coletem alguns relatórios de incidentes, descobrimos que isso provavelmente não capturará os novos danos causados ​​pela IA de fronteira.”

O relatório recomenda o DSIT a dar prioridade à identificação de novos danos através de análises rigorosas e relatórios de incidentes, em vez da sua atual abordagem reativa.

“Passos Encorajadores’’

A divulgação do relatório CLTR ocorre num momento em que o Reino Unido se prepara para ir às urnas em 4 de julho, com os dois principais partidos levantando pontos de discussão sobre a IA.

Em 21 de maio, o Reino Unido, os Estados Unidos, a União Europeia e outros oito países chegaram a um acordo para “acelerar o avanço da ciência da segurança da IA” na Cimeira da IA ​​em Seul. Os líderes globais comprometeram-se a trabalhar juntos para uma “IA mais segura” e o avanço do “bem-estar humano”.

A secretária de tecnologia, Michelle Donelan, disse num comunicado de imprensa no final da cimeira que a IA só poderá atingir todo o seu potencial “se formos capazes de enfrentar os riscos colocados por esta tecnologia complexa e em rápida evolução”.

“Desde que reunimos o mundo em Bletchley no ano passado, o Reino Unido liderou o movimento global sobre segurança de IA e quando anunciei o primeiro Instituto de Segurança de IA do mundo, outras nações seguiram este apelo às armas estabelecendo o seu próprio”, disse Michelle.

Jessica Chapplow, fundadora da Heartificial Intelligence, disse ao Epoch Times por e-mail que “embora seja encorajador ver medidas significativas sendo tomadas”, é vital que o governo permaneça “vigilante e proativo”.

“Os compromissos das principais empresas de IA de adotar medidas voluntárias de segurança e transparência, particularmente como visto durante a primeira Cimeira Global de Segurança de IA organizada pelo governo do Reino Unido, são de fato avanços positivos”, disse Jessica.

“As medidas proativas tomadas pelo governo, como a primeira Cúpula Global de Segurança de IA e o compromisso de colaborar com o Instituto de Segurança de IA do Reino Unido, destacam o reconhecimento dos riscos potenciais representados por sistemas avançados de IA.”

“É claro que, à medida que a IA continua a avançar a um ritmo rápido, um quadro legislativo e regulamentar mais distinto irá tornar essencial para enfrentar os riscos emergentes e garantir que o desenvolvimento da IA ​​se alinhe com os valores sociais e as normas de segurança”, disse ela.

O Epoch Times entrou em contato com o DSIT para comentar.