A rápida evolução das tecnologias de inteligência artificial (IA) representa um desafio para a segurança internacional e pode ser usada por terceiros para impulsionar rivais nucleares a um conflito catastrófico, de acordo com um especialista.
“A tecnologia movida a IA está rapidamente se tornando outro recurso no kit de ferramentas de agentes terceirizados para travar campanhas de desinformação e fraude, a qual ambos os lados em uma díade competitiva, [como] os EUA e a China, podem acabar presenciando seu uso contra suas nações”, afirmou James Johnson, professor de estudos estratégicos na Universidade de Aberdeen.
Os grupos que utilizam IA, sejam eles Estados-nação ou não, terão um “efeito estratégico descomunal” nos próximos anos, declarou Johnson durante um webinar sobre a competição China-EUA em IA, patrocinado pelo Instituto Internacional de Estudos Estratégicos.
Ele expressou preocupação de que agentes não-estatais ou terceiros possam alavancar tecnologias críticas e emergentes contra potências nucleares, possivelmente prejudicando sua capacidade de conduzir operações militares ou arrastando-os para um conflito nuclear involuntário.
“Em teoria, um agente não estatal poderia ter como alvo sistemas de controle e comando nuclear, satélites de alerta precoce e radares, com armas cibernéticas aprimoradas por IA sem a necessidade de qualquer ataque cinético ou físico, muito menos a posse de armas nucleares”, relatou Johnson. .
Johnson afirma que a IA reduzirá drasticamente o limite de capacidade para os chamados ataques de bandeira falsa, permitindo efetivamente que pequenos grupos com recursos limitados se envolvam em ataques destinados a desorientar as nações.
Um grupo de hackers, por exemplo, poderia enganar os líderes e/ou sistemas americanos ou chineses fazendo-os acreditar que estavam sob ataque, desencadeando assim uma retaliação, enganando efetivamente uma nação para que atacasse outra.
“Aumentos maciços” na velocidade de tomada de decisão da máquina ultrapassando a compreensão humana, bem como a adoção generalizada de sistemas de IA, pode levar a uma perda ainda maior na capacidade de controlar ou conter tais eventos, afirma Johnson.
“Imagine, por exemplo, se a crise dos mísseis cubanos fosse encurtada de 13 dias para uma questão de horas, minutos ou mesmo nanossegundos”, relatou Johnson.
Contribuindo para essa ameaça, declarou Johnson, está o fato de que China, Rússia e Estados Unidos mantêm algumas de suas forças nucleares na chamada postura de “lançamento sob alerta”. Isso significa que essas nações vão lançar ataques nucleares de retaliação ao receberem um aviso de que estão sob ataque nuclear, ao invés de esperar por uma detonação para confirmar que tal ataque realmente ocorreu.
Se um grupo de hackers fosse disparar um dos sistemas de alerta nuclear dessas nações, então, haveria uma chance decente de que isso desencadeasse um ataque nuclear real.
Johnson afirma que terceiros empregando tais táticas “poderia levar a dois ou mais rivais com armas nucleares à beira do precipício” e que seriam uma força desestabilizadora nos anos que virão.
“Isso está se tornando rapidamente um cenário plausível”, afirmou Johnson.
Johnson também explicou que as operações aparentemente não conectadas ao sistema de alerta nuclear ainda podem causar estragos na liderança e nas operações civis e militares. Vídeos falsos e outras operações de desinformação projetadas para promover erros de cálculo e concepção errônea entre as lideranças nacionais provavelmente aumentarão, declarou, e podem trazer as mesmas consequências.
Essa interferência no cenário de informações durante uma crise entre duas potências nucleares, em que as comunicações já estão comprometidas e a tomada de decisões comprimida, pode resultar no pior cenário possível.
“As consequências desse tipo de operação de informação podem obviamente ser catastróficas”, relata Johnson.
Para esse fim, Johnson afirma que o erro humano e o erro da máquina provavelmente se combinariam formando resultados incertos e inesperados, à medida que novas tecnologias surgissem e fossem implantadas.
“Em suma, o julgamento humano e controle absoluto, juntamente com a fragilidade inerente ou falta de contexto ou senso comum dos algoritmos de máquinas existentes, faz com que o risco de acidentes desestabilizadores e alarmes falsos aumente”, declarou Johnson.
Para evitar um desastre absoluto, Johnson afirma que as nações deveriam agir agora e tomar medidas proativas para se proteger contra tais ataques e erros de cálculo. Ele sugeriu que fossem feitas melhorias no comando e controle, redundâncias fossem implementadas nos protocolos nucleares e novas normas fossem desenvolvidas entre aliados e adversários com relação ao uso e implantação de IA.
“Agora é um momento para uma intervenção positiva antes que seja tarde demais”, afirmou Johnson.
Entre para nosso canal do Telegram
Assista também:
As opiniões expressas neste artigo são as opiniões do autor e não refletem necessariamente as opiniões do Epoch Times