A IA autônoma representa uma ameaça existencial — e está quase chegando, afirma ex-CEO do Google

Por Joseph Lord
16/12/2024 19:20 Atualizado: 16/12/2024 19:20
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

O ex-CEO do Google, Eric Schmidt, disse que a inteligência artificial (IA) autônoma está chegando — e que ela pode representar uma ameaça existencial para a humanidade.

“Em breve, poderemos ter computadores funcionando por conta própria, decidindo o que querem fazer”, disse Schmidt, que há muito tempo fala sobre os perigos e os benefícios que a IA representa para a humanidade, durante uma aparição em 15 de dezembro no programa “This Week” da ABC.

“Esse é um ponto perigoso: Quando o sistema pode se autoaperfeiçoar, precisamos pensar seriamente em desconectá-lo.”

Schmidt está longe de ser o primeiro líder de tecnologia a levantar essas preocupações.

O crescimento de produtos de IA para o consumidor, como o ChatGPT, não tem precedentes nos últimos dois anos, com grandes melhorias no modelo baseado em linguagem. Outros modelos de IA têm se tornado cada vez mais hábeis na criação de arte visual, fotografias e vídeos completos que, em muitos casos, são quase indistinguíveis da realidade.

Para alguns, a tecnologia lembra a série “Terminator”, que se passa em um futuro distópico no qual a IA domina o planeta.

Apesar de todos os temores que o ChatGPT e plataformas semelhantes suscitaram, os serviços de IA para consumidores disponíveis atualmente ainda se enquadram em uma categoria que os especialistas considerariam “IA burra”. Essas IAs são treinadas em um grande conjunto de dados, mas não têm consciência, senciência ou capacidade de se comportar de forma autônoma.

Schmidt e outros especialistas não estão particularmente preocupados com esses sistemas.

Em vez disso, eles estão preocupados com a IA mais avançada, conhecida no mundo da tecnologia como “inteligência geral artificial” (AGI), que descreve sistemas de IA muito mais complexos que poderiam ter sensibilidade e, por extensão, poderiam desenvolver motivos conscientes independentes e potencialmente perigosos para os interesses humanos.

Schmidt disse que ainda não existem sistemas desse tipo e que estamos caminhando rapidamente em direção a um novo tipo intermediário de IA: um sistema sem a senciência que definiria uma AGI e ainda capaz de agir de forma autônoma em áreas como pesquisa e armamento.

“Faço isso há 50 anos. Nunca vi inovação nessa escala”, disse Schmidt sobre os rápidos desenvolvimentos na complexidade da IA.

Schmidt disse que uma IA mais desenvolvida traria muitos benefícios para a humanidade — e poderia trazer também “coisas ruins, como armas e ataques cibernéticos”.

O desafio

O desafio, disse Schmidt, é multifacetado.

Ele repetiu um sentimento comum entre os líderes de tecnologia: Se os sistemas autônomos do tipo AGI forem inevitáveis, será necessária uma cooperação maciça entre os interesses corporativos e os governos internacionais para evitar consequências potencialmente devastadoras.

Isso é mais fácil de dizer do que fazer. A IA oferece aos concorrentes dos EUA, como a China, a Rússia e o Irã, uma vantagem potencial contra os Estados Unidos que seria difícil de obter de outra forma.

E, no setor de tecnologia, há atualmente uma concorrência maciça entre as grandes corporações — Google, Microsoft e outras — para superar os rivais, uma situação que aumenta os riscos inerentes de protocolos de segurança inadequados para lidar com uma IA desonesta, disse Schmidt.

“A concorrência é tão acirrada que existe a preocupação de que uma das empresas decida omitir as etapas [de segurança] e, de alguma forma, libere algo que realmente cause algum dano”, disse Schmidt.

Esses danos só se tornariam evidentes após o fato, disse ele.

O desafio é maior no cenário internacional, onde as nações adversárias provavelmente verão a nova tecnologia como revolucionária para seus esforços de desafiar a hegemonia global dos EUA e expandir sua própria influência.

“Os chineses são inteligentes e entendem o poder de um novo tipo de inteligência para seu poder industrial, seu poder militar e seu sistema de vigilância”, disse Schmidt.

Como resultado, os líderes dos EUA no campo se veem forçados a equilibrar as preocupações existenciais da humanidade com a possibilidade de os Estados Unidos ficarem atrás de seus adversários, o que poderia ser catastrófico para a estabilidade global.

Na pior das hipóteses, esses sistemas poderiam ser usados para projetar armas biológicas e nucleares incapacitantes, principalmente por grupos terroristas como o ISIS.

Por esse motivo, disse Schmidt, é absolutamente crucial que os Estados Unidos continuem a inovar no campo e, por fim, mantenham o domínio tecnológico sobre a China e outros estados e grupos adversários.

Líderes do setor exigem regulamentação

A regulamentação da área continua insuficiente, disse Schmidt. Mas ele disse que espera que o foco dos governos no aprimoramento das salvaguardas em torno da tecnologia se acelere drasticamente nos próximos anos.

Perguntado pelo âncora George Stephanopoulos se os governos estavam fazendo o suficiente para regulamentá-lo, Schmidt respondeu: “Ainda não, mas farão, porque terão que fazer”.

Apesar de algum interesse inicial no campo — audiências, propostas legislativas e outras iniciativas — surgido durante o atual 118º Congresso, esta sessão parece estar a caminho de terminar sem nenhum projeto de lei importante relacionado à IA.

O presidente eleito Donald Trump alertou sobre os enormes riscos apresentados pela IA, dizendo durante uma participação no podcast “Impaulsive”, de Logan Paul, que se trata de “algo realmente poderoso”.

Ele também falou sobre a necessidade de manter a competitividade com os adversários.

“Isso traz dificuldades, mas temos que estar na vanguarda”, disse Trump. “Isso vai acontecer e, se acontecer, temos que assumir a liderança sobre a China. A China é a principal ameaça.”

As opiniões de Schmidt sobre os benefícios e os desafios da tecnologia se alinham com outras reações do setor.

Em junho de 2024, os funcionários da OpenAI e do Google assinaram uma carta alertando sobre os “sérios riscos” apresentados pela IA e pedindo uma maior supervisão governamental do campo.

Elon Musk apresentou avisos semelhantes, dizendo que o Google está buscando criar um “Deus digital” por meio de seu programa de IA DeepMind.

Em agosto, essas preocupações se intensificaram depois que foi descoberto que um sistema de IA tomou medidas autônomas para evitar ser desligado — aumentando os temores de que a humanidade já esteja perdendo o controle sobre sua criação, uma vez que os governos permanecem inativos.