‘Se continuarmos com isso, todos morrerão’, adverte especialista em Inteligência Artificial 

Por Naveen Athrappully
06/04/2023 16:57 Atualizado: 07/04/2023 15:00

Os seres humanos não estão prontos para uma IA poderosa nas condições atuais ou mesmo no “futuro previsível”, afirmou um dos principais especialistas na área, acrescentando que a recente carta aberta pedindo uma moratória de seis meses no desenvolvimento de inteligência artificial avançada é “subestimar a gravidade da situação”.

“A questão-chave não é a inteligência ‘humana-competitiva’ (como a carta aberta coloca); é o que acontece depois que a IA chega a uma inteligência mais inteligente do que a humana”, disse Eliezer Yudkowsky, teórico da decisão e principal pesquisador de IA em um artigo de opinião publicado em 29 de março na revista Time. “Muitos pesquisadores imersos nessas questões, inclusive eu, esperam que o resultado mais provável da construção de uma IA inteligente sobre-humana, em qualquer coisa remotamente parecida com as circunstâncias atuais, é que literalmente todos na Terra morrerão.”

“Não é como ‘talvez possivelmente algum acaso remoto’, mas sim que ‘isso é o que obviamente aconteceria’. Não é que você não possa, em princípio, sobreviver criando algo muito mais inteligente do que você; é que isso exigiria precisão, preparação e novos insights científicos, e provavelmente não ter sistemas de IA compostos de matrizes gigantes e inescrutáveis ​​de números fracionários.

Após a recente popularidade e crescimento explosivo do ChatGPT, vários líderes empresariais e pesquisadores, agora totalizando 1.843, incluindo Elon Musk e Steve Wozniak, assinaram uma carta pedindo a “todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”. O GPT-4, lançado em março, é a versão mais recente do chatbot da OpenAI, o ChatGPT.

IA ‘não se importa’ e exigirá direitos

Yudkowsky prevê que, na ausência de uma preparação meticulosa, a IA terá demandas muito diferentes dos humanos e, uma vez autoconsciente, “não se importará conosco” nem com qualquer outra vida senciente. “Esse tipo de cuidado é algo que poderia, em princípio, ser imbuído em uma IA, mas não estamos prontos e atualmente não sabemos como”. Esta é a razão pela qual ele está pedindo o desligamento absoluto.

Sem uma abordagem humana da vida, a IA simplesmente considerará todos os seres sencientes como “feitos de átomos que podem ser usados ​​para outra coisa”. E há pouco que a humanidade pode fazer para impedir isso. Yudkowsky comparou o cenário a “uma criança de 10 anos tentando jogar xadrez contra o Stockfish 15”. Nenhum jogador de xadrez humano conseguiu vencer o Stockfish, o que é considerado uma façanha impossível.

O veterano da indústria pediu aos leitores que imaginassem a tecnologia de IA como não estando contida nos limites da internet.

“Visualize uma civilização alienígena inteira, pensando milhões de vezes a mais que a velocidade humana, inicialmente confinada a computadores – em um mundo de criaturas que são, de sua perspectiva, muito estúpidas e muito lentas.”

A IA expandirá sua influência para fora da periferia das redes físicas e poderá “construir formas de vida artificiais” usando laboratórios onde as proteínas são produzidas usando cadeias de DNA.

O resultado final da construção de uma IA todo-poderosa, nas condições atuais, seria a morte de “todos os membros da espécie humana e toda a vida biológica na Terra”, alertou.

Yudkowsky culpou a OpenAI e a DeepMind – dois dos principais laboratórios de pesquisa de IA do mundo – por não terem nenhuma preparação ou protocolos necessários sobre o assunto. A OpenAI planeja até que a própria IA faça o alinhamento com os valores humanos. “Eles trabalharão em conjunto com os humanos para garantir que seus próprios sucessores estejam mais alinhados com os humanos”, de acordo com a OpenAI.

Esse modo de ação é “suficiente para deixar qualquer pessoa sensata em pânico”, disse Yudkowsky.

Ele acrescentou que os humanos não podem monitorar ou detectar totalmente sistemas de IA autoconscientes. Mentes digitais conscientes que exigem “direitos humanos” podem progredir a um ponto em que os humanos não podem mais possuir o sistema.

“Se você não pode ter certeza se está criando uma IA autoconsciente, isso é alarmante não apenas por causa das implicações morais da parte ‘autoconsciente’, mas porque não ter certeza significa que você não tem ideia do que é. Fazer isso é perigoso e você deve parar.”

Ao contrário de outros experimentos científicos e progressão gradual de conhecimento e capacidade, as pessoas não podem pagar por isso com inteligência sobre-humana porque, se der errado na primeira tentativa, não haverá segunda chance “porque você está morto”.

‘Desligue isso’

Yudkowsky disse que muitos pesquisadores estão cientes de que “estamos mergulhando em direção a uma catástrofe”, mas não estão dizendo isso em voz alta.

Essa postura é diferente de proponentes como Bill Gates, que recentemente elogiou a evolução da inteligência artificial. Gates afirmou que o desenvolvimento da IA ​​é “tão fundamental quanto a criação do microprocessador, do computador pessoal, da Internet e do telefone celular. Isso mudará a maneira como as pessoas trabalham, aprendem, viajam, obtêm assistência médica e se comunicam umas com as outras. Indústrias inteiras se reorientarão em torno dele. As empresas se distinguirão pela forma como o usam.”

Gates disse que a IA pode ajudar com várias agendas progressistas, incluindo mudanças climáticas e desigualdades econômicas.

Enquanto isso, Yudkowsky instrui todos os estabelecimentos, incluindo governos e militares internacionais, a encerrar indefinidamente grandes execuções de treinamento de IA e desligar todas as grandes fazendas de computadores onde as IAs são refinadas. Ele acrescenta que a IA deve ser limitada apenas à resolução de problemas em biologia e biotecnologia, e não treinada para ler “textos da internet” ou “no nível em que eles começam a falar ou planejar”.

Em relação à IA, não há corrida armamentista. “Que todos vivamos ou morramos como um, nisto, não é uma política, mas um fato da natureza.”

Yudkowsky conclui dizendo: “Não estamos prontos. Não estamos a caminho de estar significativamente mais preparados no futuro próximo. Se continuarmos com isso, todos morrerão, inclusive as crianças que não escolheram isso e não fizeram nada de errado.

“Desligue isso.”

Entre para nosso canal do Telegram

Assista também: