IA pode ser usada para criar vírus e armas biológicas, alerta um think tank

Por Alfred Bui
20/08/2024 17:42 Atualizado: 21/08/2024 10:35
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

A inteligência artificial (IA) não representa apenas riscos tecnológicos, mas também pode criar vírus que representem uma ameaça à humanidade, afirma um think tank.

Em uma recente audiência de investigação do Senado dos EUA sobre IA, o CEO da Good Ancestors Policy, Greg Sadler, disse que a IA poderia ajudar na fabricação de vírus perigosos, o que normalmente só é possível em laboratórios de ponta.

“Em março de 2022, foi publicado um artigo na Nature Machine Intelligence [revista científica] detalhando como uma IA pretendia encontrar novos medicamentos, mas, em vez disso, projetou 40.000 moléculas novas e letais em menos de seis horas”, disse ele.

“Da mesma forma, um estudo de 2023 mostrou que os alunos foram capazes de usar o ChatGPT para sugerir possíveis patógenos pandêmicos, explicar como eles poderiam ser produzidos a partir de DNA encomendado on-line e fornecer os nomes de empresas de síntese de DNA que provavelmente não examinariam os pedidos para garantir que não incluíssem sequências de DNA perigosas.”

Sadler também observou que, no segundo estudo, as proteções do ChatGPT não conseguiram impedir que o aplicativo fornecesse esse tipo de assistência perigosa.

“É realista que as IAs possam ajudar as pessoas a construir armas biológicas durante o próximo período do governo”, disse ele.

O CEO acrescentou que a ameaça levou o governo dos EUA a tomar medidas, incluindo a introdução de uma ordem executiva em outubro de 2023.

Embora Sadler tenha levantado a questão com vários departamentos do governo australiano, ele não viu nenhuma evidência de gerenciamento de risco semelhante ao adotado pelos Estados Unidos.

Ao mesmo tempo, Sadler disse que havia uma enorme lacuna entre o investimento em segurança e o investimento em capacidade.

“Muitas das proteções [de IA] são rapidamente derrotadas. Elas não são capazes de proteger os tipos de recursos que os modelos futuros poderão ter”, disse ele.

“Para cada US$168 gastos na capacidade de IA, apenas $1 é gasto na segurança da IA.”

“Portanto, é fundamental impulsionar a pesquisa de segurança de IA para realmente resolver esses problemas antes que eles surjam.”

Proposta de criação do Instituto de Segurança de IA

Para tratar da biossegurança e de outros tipos de riscos, Soroush Pour, CEO da empresa de pesquisa de segurança de IA Harmony Intelligence, propôs a criação de um instituto de segurança de IA na Austrália.

De acordo com o CEO, o instituto se concentraria no desenvolvimento da capacidade técnica e da habilidade necessárias para apoiar o governo na resposta às ameaças.

Além disso, o instituto precisava estar associado a um órgão regulador forte que pudesse impor políticas obrigatórias, como testes de terceiros, recursos eficazes de desligamento e relatórios de incidentes de segurança.

“Se fizermos tudo isso, se respondermos com eficácia, não apenas manteremos os australianos seguros, mas também poderemos ser um exportador líquido de tecnologias de defesa e garantia de IA”, disse Pour.

Com relação à estrutura de regulamentação para a segurança da IA, Sadler sugeriu que a Austrália considerasse o projeto de lei SB-1047 sobre IA apresentado pelo governo da Califórnia, nos Estados Unidos.

Ele explicou que a estrutura californiana ofereceu à Austrália um caminho prático, pois exigia que os desenvolvedores tivessem uma obrigação positiva de garantir que seus modelos de IA fossem seguros e não representassem um risco à segurança pública.

“[O projeto de lei SB-1047] diz que se os desenvolvedores não passarem por esses processos de proteção, eles poderão ser responsabilizados por quaisquer danos catastróficos que seus modelos causarem”, disse ele.

“Posteriormente, ele impõe a esses desenvolvedores a obrigação de ajudar outras partes a fornecer verificação de terceiros.”

Além disso, Sadler afirmou que a estrutura californiana exigia que os desenvolvedores tivessem a capacidade de desligar a IA se ela se tornasse perigosa.

O projeto de lei SB-1047 tem como alvo modelos de IA com capacidade de computação superior a 1.026 operações de ponto flutuante e que custem pelo menos US$100 milhões para serem desenvolvidos.

Depois que o projeto de lei foi apresentado, empresas de tecnologia e especialistas em IA levantaram preocupações sobre seu impacto na inovação do setor.

A legislação superou um obstáculo importante em 15 de agosto e seguirá para a câmara baixa da Califórnia nas próximas semanas.