O Departamento de Defesa dos EUA disse em 10 de agosto que estabeleceu uma força-tarefa para analisar e integrar ferramentas generativas de inteligência artificial (IA), como grandes modelos de linguagem, em todo o departamento.
De acordo com o departamento, a Força Tarefa Lima “avaliará, sincronizará e empregará capacidades de IA generativas”, garantindo que os Estados Unidos permaneçam na vanguarda da tecnologia de ponta, protegendo a segurança nacional.
A força-tarefa foi estabelecida sob a direção da vice-secretária de Defesa, Kathleen Hicks, e será liderada por Craig Martell, diretor de inteligência digital e artificial do departamento.
O Sr. Martell disse que os Estados Unidos precisarão “identificar medidas de proteção adequadas e mitigar os riscos de segurança nacional que podem resultar de problemas como dados de treinamento mal gerenciados” ao adotar IA generativa.
“Também devemos considerar até que ponto nossos adversários empregarão essa tecnologia e tentarão interromper nosso próprio uso de soluções baseadas em IA”, disse Martell em um comunicado.
Inteligência artificial generativa refere-se a algoritmos de IA que criam novos conteúdos “com base nos dados em que foram treinados”, de acordo com o Fórum Econômico Mundial. As forças armadas dos EUA pretendem usar essa tecnologia para aprimorar seus combates, negócios, saúde, prontidão e política.
No mês passado, o coronel Matthew Strohmeyer da Força Aérea dos EUA disse ao Bloomberg que os militares dos EUA conduziram avaliações ao vivo de modelos generativos de IA para determinar sua viabilidade na tomada de decisões.
O coronel Strohmeyer disse que as ferramentas de IA podem processar “dados secretos e classificados” em 10 minutos, uma redução significativa das horas ou dias que um humano levaria para concluir tal tarefa.
“Isso não significa que está pronto para o horário nobre agora”, disse ele à agência de notícias. “Mas nós apenas fizemos isso ao vivo. Fizemos isso com dados de nível secreto.”
Iniciativa sobre usos militares responsáveis
No início deste ano, os Estados Unidos iniciaram uma iniciativa de promoção da cooperação internacional sobre o uso responsável de IA e armas autônomas por militares, buscando impor ordem a uma tecnologia emergente que tem o potencial de mudar a maneira como a guerra é travada.
Bonnie Jenkins, subsecretária de controle de armas e segurança internacional do Departamento de Estado, disse que a declaração política dos EUA contém diretrizes que descrevem as melhores práticas para o uso militar responsável da IA.
A Sra. Jenkins disse que os avanços nessa tecnologia “alteraram fundamentalmente as forças armadas em todo o mundo”, como demonstrado pela aplicação de IA do exército ucraniano para analisar situações no campo de batalha.
“Como uma tecnologia em rápida mudança, temos a obrigação de criar normas fortes de comportamento responsável em relação ao uso militar da IA, e de uma forma que tenha em mente que as aplicações da IA pelos militares sem dúvida mudarão nos próximos anos”, disse ela em 16 de fevereiro.
A declaração dos EUA tem 12 pontos, um dos quais destaca a necessidade de “manter o controle humano e o envolvimento de todas as ações críticas para informar e executar decisões soberanas relativas ao emprego de armas nucleares”.
IA militar aumenta o risco estratégico
O Centro para uma Nova Segurança Americana avisou em um relatório (pdf) que o uso de inteligência artificial nas forças armadas, combinado com as tensões contínuas entre os Estados Unidos e a China comunista, aumenta o risco de uma catástrofe estratégica.
O relatório diz que “a intensificação da rivalidade geopolítica entre os Estados Unidos e [a China]” está combinada com “o rápido desenvolvimento de tecnologias de inteligência artificial, inclusive para aplicações militares”.
“Em conjunto, o surgimento da IA militar provavelmente aprofundará a rivalidade EUA-China e aumentará os riscos estratégicos.”
O relatório procura examinar os possíveis “caminhos” pelos quais a IA militar pode minar a estabilidade global ou contribuir para uma nova guerra e fornece recomendações de políticas para evitar um conflito tão catastrófico.
Andrew Thornebrooke e a Associated Press contribuíram para esta notícia.
Entre para nosso canal do Telegram