Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
Armas de ponta alimentadas por inteligência artificial estão a emergir como um risco à segurança global, especialmente nas mãos do Partido Comunista Chinês (PCCh), de acordo com vários especialistas.
Ansioso por ultrapassar militarmente os Estados Unidos, é pouco provável que o PCCh dê ouvidos às salvaguardas em torno das tecnologias letais de IA, que são cada vez mais perigosas por si só, argumentaram os especialistas. A natureza da tecnologia tende a alimentar algumas das piores tendências do regime e da psique humana em geral, alertaram.
“As implicações são bastante dramáticas. E podem estar à altura da revolução nuclear”, disse Bradley Thayer, membro sênior do Centro de Política de Segurança, especialista em avaliação estratégica da China e colaborador do Epoch Times.
Robôs assassinos
Infelizmente, o desenvolvimento de armas autônomas alimentadas por IA está progredindo rapidamente, de acordo com Alexander De Ridder, desenvolvedor de IA e cofundador da Ink, uma empresa de marketing de IA.
“Eles estão se tornando rapidamente mais eficientes e mais eficazes”, disse ele ao Epoch Times, acrescentando que “eles não estão no ponto em que possam substituir os humanos”.
Drones, tanques, navios e submarinos autônomos tornaram-se realidade junto com modalidades mais exóticas, como os cães-robôs quadrúpedes, já armados com metralhadoras na China.
Até mesmo robôs humanóides movidos por IA, produto dos horrores da ficção científica, estão em produção. É verdade que eles ainda são bastante desajeitados no mundo real, mas não o serão por muito tempo, sugeriu De Ridder.
“As capacidades desses robôs estão avançando rapidamente”, disse ele.
Assim que atingirem utilidade e confiabilidade comercializáveis, a China provavelmente transformará seu poder industrial em produção em massa, de acordo com De Ridder.
“O mercado será inundado com robôs humanóides, e então cabe à programação como eles serão usados”.
Isso significaria uso militar também.
“É meio inevitável”, disse ele.
Essas máquinas comandadas por IA são muito eficazes no processamento de imagens para discernir objetos – para detectar um ser humano com seus sensores ópticos, por exemplo, explicou James Qiu, especialista em IA, fundador do GIT Research Institute e ex-CTO da FileMaker.
Isso torna os robôs de IA muito bons na segmentação.
“É uma máquina de matar muito eficaz”, disse ele.
Generais de IA
A um nível mais amplo, vários países estão a trabalhar numa IA capaz de informar e coordenar decisões no campo de batalha – um general eletrônico, de acordo com Jason Ma, especialista em IA e líder de investigação de dados numa empresa multinacional Fortune 500. Ele não queria que o nome da empresa fosse mencionado para evitar qualquer impressão de que ele estava falando em nome dela.
O Exército de Libertação Popular (ELP), o exército do PCCh, conduziu recentemente exercícios de batalha nos quais uma IA foi diretamente colocada no comando.
Os militares dos EUA também têm projetos nesta área, observou Ma.
“É um tópico de pesquisa e desenvolvimento muito ativo”.
A necessidade é óbvia, explicou ele. As decisões no campo de batalha são informadas por uma quantidade impressionante de dados desde o contexto histórico e inteligência passada até dados de satélite em tempo quase real, até a entrada milissegundo por milissegundo de cada câmera, microfone e qualquer sensor no campo de batalha.
É “muito difícil” para os humanos processar fluxos de dados tão distintos e volumosos, disse ele.
“Quanto mais complexa a guerra, mais importante se torna a questão de como integrar e resumir rapidamente todas essas informações para tomar a decisão certa, em segundos ou mesmo em menos de um segundo”, disse ele.
Desestabilização
As armas de IA já estão redefinindo a guerra, concordaram os especialistas. Mas as consequências são muito mais amplas. A tecnologia está tornando o mundo cada vez mais volátil, disse Thayer.
No nível mais rudimentar, a mira com armas alimentadas por IA provavelmente tornará muito mais fácil abater mísseis balísticos intercontinentais, detectar e destruir submarinos e abater bombardeiros de longo alcance. Isso poderia neutralizar as capacidades da tríade nuclear dos EUA, permitindo que os adversários “escalem para além do nível nuclear” com impunidade, sugeriu ele.
“A IA afetaria cada um desses componentes, que desenvolvemos e entendemos durante a Guerra Fria como sendo absolutamente essenciais para uma relação estável de dissuasão nuclear”, disse ele.
“Durante a Guerra Fria, havia um amplo entendimento de que a guerra convencional entre potências nucleares não era viável. … A IA está a minar isso, porque introduz a possibilidade de conflito convencional entre dois estados nucleares”.
Se as pessoas continuarem a desenvolver sistemas de armas alimentados por IA sem restrições, a volatilidade só irá piorar, previu ele.
“A IA está afetando muito o campo de batalha, mas ainda não é determinante”, disse ele.
Se as capacidades da IA alcançarem “o efeito da guerra nuclear sem usar armas nucleares”, isso colocaria o mundo num barril de pólvora, disse ele.
“Se isso for possível, e é bem provável que seja possível, então essa é uma situação extremamente perigosa e incrivelmente desestabilizadora porque obriga alguém que está sendo alvo de um ataque a agir primeiro, não a suportar o ataque, mas a agredir. ”
No léxico da guerra, o conceito é chamado de “limitação de danos”, disse ele.
“Você não quer que o cara vá primeiro, porque você vai se machucar gravemente. Então você vai primeiro. E isso será enormemente desestabilizador na política internacional”.
A preocupação não é apenas com robôs assassinos ou drones, mas também com várias armas não convencionais de IA. Uma IA, por exemplo, poderia ser desenvolvida para encontrar vulnerabilidades em infraestruturas críticas, como a rede elétrica ou os sistemas de abastecimento de água.
Controlar a proliferação de tais tecnologias parece particularmente assustador. IA é apenas um software. Mesmo os modelos maiores cabem em um disco rígido normal e podem ser executados em um pequeno conjunto de servidores. Armas de IA simples, mas cada vez mais letais, como os drones assassinos, podem ser enviadas em partes sem gerar alarme.
“Tanto os incentivos à proliferação vertical como horizontal são enormes e são fáceis de realizar”, disse Thayer.
De Ridder destacou que o Estado chinês quer ser visto como responsável no cenário mundial.
Mas isso não impediu o PCCh de fornecer armas ou ajudar programas de armamento de outros regimes e grupos que não são tão limitados em termos de reputação, observaram outros especialistas.
Não seria uma surpresa se o PCCh fornecesse armas autônomas a grupos terroristas que prenderiam então os militares dos EUA em intermináveis conflitos assimétricos. O PCCh poderia até manter distância e apenas fornecer as peças, permitindo que os representantes montassem os drones, tal como os fornecedores chineses fornecem precursores de fentanil aos cartéis mexicanos e deixam-nos fabricar, enviar e vender as drogas.
O PCCh, por exemplo, tem uma longa história de ajuda aos programas de armas iranianos. O Irã, por sua vez, fornece armas a um panóptico de grupos terroristas na região.
“Haveria pouco desincentivo para o Irã fazer isto”, disse Thayer.
Humano no circuito
É geralmente aceito, pelo menos nos Estados Unidos e entre os seus aliados, que a salvaguarda mais crucial contra as armas de IA que causam estragos imprevistos é manter um ser humano no controle de decisões importantes, especialmente o uso de força letal.
“Sob nenhuma circunstância qualquer máquina deve ser autorizada a tirar uma vida humana de forma autônoma”, disse De Ridder.
O princípio é comumente resumido na frase “humano no circuito”.
“Um ser humano tem consciência e precisa acordar de manhã com remorso e as consequências do que fez, para que possa aprender com isso e não repetir atrocidades”, disse De Ridder.
Alguns dos especialistas salientaram, no entanto, que o princípio já está a ser corroído pela natureza do combate transformada pelas capacidades da IA.
Na guerra da Ucrânia, por exemplo, os militares ucranianos tiveram de equipar os seus drones com alguma autonomia para se orientarem até aos seus alvos, porque a sua comunicação com operadores humanos estava a ser bloqueada pelos militares russos.
Esses drones executam apenas IA mais simples, disse Ma, dada a potência limitada do computador de bordo do drone. Mas isso poderá mudar em breve, à medida que os modelos de IA e os computadores se tornarem mais rápidos e eficientes.
A Apple já está trabalhando em uma IA que possa funcionar em um telefone, diz Ma.
“É altamente provável que no futuro seja colocado em um pequeno chip”.
Além disso, num grande conflito em que centenas ou talvez milhares de drones sejam mobilizados ao mesmo tempo, estes podem partilhar o poder computacional para realizar tarefas autônomas muito mais complexas.
“Tudo é possível”, disse ele. “Chegou ao ponto em que não é ficção científica; é só uma questão de haver um grupo de pessoas que queira dedicar tempo para trabalhar nisso. É uma tecnologia tangível”.
Remover o controle humano por necessidade não é um conceito novo, de acordo com James Fanell, ex-oficial de inteligência naval e especialista na China.
Ele deu o exemplo do Sistema de Combate Aegis implantado em cruzadores e destroyers de mísseis guiados pelos EUA. Ele detecta e rastreia automaticamente alvos aéreos e lança mísseis para derrubá-los. Normalmente, um operador humano controla os lançamentos de mísseis, mas também há uma maneira de alterná-lo para o modo automático, como quando há muitos alvos para o operador humano rastrear. O sistema então identifica e destrói os alvos por conta própria, disse Fanell.
Na guerra em massa com drones, onde uma IA coordena milhares de drones num ataque sistemático, o lado que dá à sua IA autonomia para disparar ganhará uma grande vantagem de velocidade sobre o lado onde os humanos devem aprovar cada tiro.
“No nível de tiro individual, as pessoas têm que abrir mão do controle porque não conseguem tomar todas as decisões tão rapidamente”, disse Ma.
De Ridder apontou que um drone atirando em outro drone sozinho seria moralmente aceitável. Mas isso poderia desencadear muitos tiroteios autônomos num campo de batalha onde também pode haver humanos, abrindo a porta a incontáveis baixas colaterais.
Sem regras
Quaisquer que sejam as salvaguardas da IA que possam ser praticáveis, é pouco provável que o PCCh as cumpra, concordaram a maioria dos especialistas.
“Eu realmente não vejo que haverá limites sobre os quais a China possa ser cautelosa”, disse Ma. “Tudo o que for possível, eles farão”.
“A ideia de que a China se restringiria a usá-lo, não vejo isso”, disse Fanell.
“Eles vão tentar tirar vantagem disso e ser capazes de explorá-lo mais rápido do que nós”.
O princípio do humano no circuito poderia simplesmente ser reinterpretado para ser aplicado a “um nível de batalha maior e completo” em vez de “ao nível de tiro individual”, disse Ma.
Mas uma vez que se aceita que a IA pode começar a disparar sozinha em algumas circunstâncias, o princípio do controle humano torna-se maleável, disse Fanell.
“Se você está disposto a aceitar isso em um sentido tático, quem pode dizer que você não irá até o mais alto nível de guerra?” disse ele.
“É a evolução natural de uma tecnologia como esta e não tenho certeza do que podemos fazer para impedi-la. Não é como se você tivesse um código de ética que diz na guerra [vamos respeitar] as regras do boxe do Marquês de Queensberry. Isso não vai acontecer.”
Mesmo que os seres humanos sejam mantidos no controle das decisões macro, como o lançamento de uma missão específica, a IA pode facilmente dominar o processo de tomada de decisão, concordaram vários especialistas.
O perigo não seria uma IA com mau desempenho, mas sim uma IA que funcionasse tão bem que inspirasse confiança nos operadores humanos.
De Ridder era cético em relação aos prognósticos sobre a IA superinteligente que excede largamente os humanos. Ele reconheceu, porém, que a IA obviamente excede os humanos em alguns aspectos, especialmente na velocidade. Ele pode processar montanhas de dados e tirar uma conclusão quase imediatamente.
É virtualmente impossível descobrir como exatamente uma IA chega às suas conclusões, de acordo com Ma e Qiu.
De Ridder disse que ele e outros estão trabalhando em maneiras de restringir a IA a um fluxo de trabalho semelhante ao humano, para que as etapas individuais de seu raciocínio sejam mais transparentes.
Mas dada a incrível quantidade de dados envolvidos, seria impossível para a IA explicar como cada informação foi levada em conta no seu raciocínio sem sobrecarregar o operador, reconheceu Ma.
“Se o operador humano souber claramente que esta é uma decisão [produzida] depois que a IA processou terabytes de dados, ele não terá realmente coragem de ignorar isso na maioria dos casos. Então acho que sim, será uma formalidade”, disse ele.
“Humano no circuito é um tipo de frase confortável, mas, na realidade, os humanos abrirão mão do controle rapidamente”.
Pressão Pública
Mesmo que os humanos sejam mantidos informados apenas nominalmente, isso ainda é importante, disse De Ridder.
“Enquanto mantivermos os humanos informados, poderemos responsabilizá-los”, disse ele.
Na verdade, todos os especialistas concordaram que a pressão pública poderá restringir o desenvolvimento e a utilização de armas de IA, pelo menos nos Estados Unidos.
Ma deu o exemplo da rescisão do contrato de defesa do Google devido às objeções de sua equipe.
No entanto, ele não conseguia imaginar uma situação análoga na China.
Qiu concorda.
“Qualquer coisa dentro da China é um recurso que o PCCh pode aproveitar”, disse ele. “Você não pode dizer: ‘Ah, esta é uma empresa privada’. Não existe uma empresa privada de fato [na China]”.
Mesmo o PCCh não consegue eliminar totalmente o sentimento público, disse De Ridder.
“O governo só sobreviverá se a população quiser colaborar”.
Mas não há indicação de que a população chinesa veja o uso militar da IA como uma preocupação urgente.
Pelo contrário, as empresas e universidades na China parecem estar ansiosas por assinar contratos militares, disse Ma.
De Ridder apelou a “um quadro regulamentar internacional que possa ser aplicado”.
Não está claro como tais regulamentos poderiam ser aplicados contra a China, que tem uma longa história de recusa de quaisquer limites ao seu desenvolvimento militar. Os Estados Unidos há muito tempo tentam em vão levar a China à mesa de negociação sobre o desarmamento nuclear. Recentemente, a China recusou um pedido dos EUA para garantir que não utilizaria IA para decisões de ataques nucleares.
Se os Estados Unidos regulamentarem o seu próprio desenvolvimento de IA, isso poderá criar uma vulnerabilidade estratégica, sugeriram vários especialistas.
“Essas regulamentações serão muito bem estudadas pelo PCCh e usadas como ferramenta de ataque”, disse Qiu.
Mesmo que algum tipo de acordo seja alcançado, o PCCh tem um histórico fraco de cumprimento de promessas, segundo Thayer.
“Qualquer acordo é uma massa de torta feita para ser quebrada”.
Soluções
De Ridder diz esperar que talvez as nações se contentem em usar a IA de formas menos destrutivas.
“Há muitas maneiras de usar a IA para atingir seus objetivos que não envolvem o envio de um enxame de drones assassinos entre si”, disse ele.
“Quando chega a hora, ninguém quer que esses conflitos aconteçam”.
Os outros especialistas acreditavam, no entanto, que o PCCh não se importaria de iniciar tal conflito – desde que visse um caminho claro para a vitória.
“Os chineses não serão limitados pelo nosso conjunto de regras”, disse Fanell. “Eles farão o que for preciso para vencer”.
Confiar nos sussurros de um conselheiro militar de IA, que inspira confiança ao processar montanhas de dados e produzir planos de batalha convincentes, pode ser particularmente perigoso, pois pode criar uma visão de vitória onde antes não existia, de acordo com Thayer.
“Você pode ver como isso pode ser muito atraente para um tomador de decisão, especialmente um que é hiper agressivo, como é o PCCh”, disse Thayer. “Isso pode tornar a agressão mais provável”.
“Só há uma maneira de pará-lo: ser capaz de derrotá-lo”, disse Fanell.
Chuck de Caro, antigo consultor do Gabinete de Avaliação de Redes do Pentágono, apelou recentemente aos Estados Unidos para desenvolverem armas eletromagnéticas que possam desativar chips de computador. Pode até ser possível desenvolver armas de energia que possam desativar um tipo específico de chips, escreveu ele em um artigo de opinião no site Blaze.
“Obviamente, sem chips funcionais, a IA não funciona”.
Outra opção poderia ser, desenvolver uma super arma de IA que pudesse servir como dissuasor.
“Existe um Projeto Manhattan de IA que os EUA estão fazendo que possa criar o efeito que Nagasaki e Hiroshima tiveram sobre a RPC e o Partido Comunista Chinês, que os faça perceber que, ‘Ok, talvez não queiramos ir por esse caminho. Isso é destruição mútua assegurada?’ Não sei. Mas é isso que eu estaria [fazendo]”, disse Fanell.
Isso poderia deixar o mundo em um impasse semelhante à Guerra Fria – um estado longe do ideal, mas provavelmente visto como preferível a abdicar da vantagem militar para o PCCh.
“Todo país sabe que é perigoso, mas ninguém pode parar porque temem ficar para trás”, disse Ma.
De Ridder diz que pode ser necessário um choque profundo para parar a corrida armamentista de IA.
“Talvez precisemos de uma guerra mundial, com imensa tragédia humana, para banir o uso de máquinas autônomas de matar com IA”, ele disse.