Matéria traduzida e adaptada do inglês, originalmente publicada pela matriz americana do Epoch Times.
Um pesquisador que foi demitido pela OpenAI previu que uma inteligência artificial geral (AGI) similar à humana poderia ser alcançada até 2027, e soou o alarme sobre a ameaça de espionagem chinesa na área.
“Se e quando o PCCh (Partido Comunista Chinês) despertar para a AGI, devemos esperar esforços extraordinários por parte do PCCh para competir. E acho que há um caminho bastante claro para a China entrar no jogo: superar os EUA em construções e roubar os algoritmos,” escreveu Leopold Aschenbrenner.
O Sr. Aschenbrenner argumentou que, sem medidas de segurança rigorosas, o PCCh exfiltrará “avanços chave da AGI” nos próximos anos.
“Será o maior arrependimento da comunidade de segurança nacional antes do final da década,” ele escreveu, alertando que “a preservação do mundo livre contra os estados autoritários está em jogo.”
Ele defende uma segurança mais robusta para os pesos dos modelos de IA – os valores numéricos que refletem a força das conexões entre neurônios artificiais – e, em particular, os segredos algorítmicos, uma área onde ele percebe falhas graves no status quo.
“Acho que falhar em proteger os segredos algorítmicos é provavelmente a maneira mais provável de a China conseguir se manter competitiva na corrida pela AGI,” ele escreveu. “É difícil exagerar o quão ruim está a segurança dos segredos algorítmicos agora.”
O Sr. Aschenbrenner também argumenta que a AGI poderia dar origem à superinteligência em pouco mais de meia década, automatizando a própria pesquisa de IA.
Intitulada “Situational Awareness: The Decade Ahead,” a série de Aschenbrenner suscitou uma gama de respostas no mundo da tecnologia. O cientista da computação Scott Aaronson descreveu-a como “um dos documentos mais extraordinários que já li,” enquanto o engenheiro de software Grady Booch escreveu no X que muitos elementos dela são “profundamente, embaraçosamente, incrivelmente errados.”
“Já passou da hora de regulamentarmos o campo,” escreveu Jason Lowe-Green, do Center for AI Policy, em um artigo de opinião elogiando a publicação de Aschenbrenner.
No X, Jason Colbourn, da Campaign for AI Safety, respondeu à referência a uma corrida de IA entre EUA e China, defendendo um “tratado global de não proliferação, começando com um tratado bilateral entre os EUA e o PCCh.”
Nas últimas semanas, pesquisadores de IA do Google e da DeepMind emitiram uma carta alertando que a tecnologia de IA apresenta “riscos sérios,” incluindo a possibilidade de “extinção humana.”
Regulamentação da IA
“Situational Awareness,” de Aschenbrenner, surge enquanto legisladores nos Estados Unidos e em todo o mundo lidam com a regulamentação da IA.
Em março de 2023, o Parlamento Europeu adotou a abrangente Lei de Inteligência Artificial vários meses depois de os estados-membros chegarem a um acordo sobre a proposta.
O Ato ENFORCE bipartidário, recentemente introduzido no Congresso dos EUA, permitiria ao Bureau of Industry and Security do Departamento de Comércio impor controles de exportação sobre tecnologias de IA.
Em uma declaração de 10 de maio sobre o projeto de lei, o membro de alto escalão do Comitê Seleto sobre o Partido Comunista Chinês, Rep. Raja Krishnamoorth (D-Ill.), alertou que “sob a lei atual, nossa comunidade de segurança nacional não tem a autoridade necessária para impedir que o Partido Comunista Chinês, seu exército e as empresas que controlam diretamente adquiram sistemas de IA que poderiam ajudar em futuros ataques cibernéticos contra os Estados Unidos.”
Aschenbrenner diz que o RH da OpenAI chamou seus avisos sobre o PCCh de “racistas”
O Sr. Aschenbrenner lançou “Situational Awareness” alguns meses após sua controversa saída da OpenAI, onde trabalhou na equipe de Superalinhamento.
O The Information informou em abril que o Sr. Aschenbrenner e outro funcionário da OpenAI foram demitidos após “alegadamente vazarem informações.”
Em uma entrevista de 4 de junho com Dwarkesh Patel, o Sr. Aschenbrenner respondeu a uma pergunta sobre esse artigo. Ele disse que o suposto “vazamento” foi do cronograma para a AGI em um documento de segurança que ele entregou a três pesquisadores não afiliados à OpenAI.
“Para contexto, era totalmente normal na OpenAI na época compartilhar ideias de segurança com pesquisadores externos para feedback,” disse ele.
Mas o Sr. Aschenbrenner vincula sua demissão às preocupações que levantou sobre o roubo de propriedade intelectual chinesa.
Ele disse ao Sr. Patel que foi formalmente repreendido pelo departamento de recursos humanos da OpenAI depois que ele redigiu um memorando de segurança que mencionava a ameaça do PCCh e o compartilhou com o conselho da OpenAI.
“A pessoa do RH me disse que era racista me preocupar com a espionagem do PCCh,” disse ele. Ele acrescentou que foi informado posteriormente de que foi demitido e não apenas advertido como resultado desse memorando.
O Epoch Times entrou em contato com a OpenAI para comentar as alegações do Sr. Aschenbrenner.
Dois co-líderes da equipe de Superalinhamento, Ilya Sutskever e Jan Leike, deixaram a OpenAI em meados de maio.
“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação a produtos brilhantes,” escreveu o Sr. Leike no X.
“Estamos muito atrasados em levar extremamente a sério as implicações da AGI. Devemos priorizar nos preparar para elas o melhor que pudermos,” acrescentou.
O Sr. Aschenbrenner, um pesquisador nascido na Alemanha que se formou como orador da turma na Universidade de Columbia aos 19 anos, dedicou sua série “Situational Awareness” ao Sr. Sutskever, um cientista da computação nascido na Rússia, com cidadania israelense e canadense.