Elon Musk adverte que a IA pode causar ‘destruição civilizacional’

Por Agência de Notícias
15/04/2023 16:10 Atualizado: 15/04/2023 16:10

O magnata da tecnologia, Elon Musk, está soando o alarme sobre os riscos da inteligência artificial (IA) – especificamente, seu potencial de “destruição civilizacional”.

 Em entrevista com Tucker Carlson, da Fox News, no dia 14 de abril, Musk enfatiza que as ramificações de tal tecnologia podem ser desastrosas para a humanidade.

“A IA é mais perigosa do que, digamos, um projeto de aeronave mal administrado ou a manutenção de produção ou produção de carro ruim,  no sentido de que tem o potencial – por menor que se possa considerar essa probabilidade, mas não é trivial – tem o potencial de destruição civilizacional.”

E o CEO da Tesla, Space X e Twitter deve saber, já que ele também co-fundou o OpenAI, o laboratório sem fins lucrativos que criou o ChatGPT em 2015.

‘Riscos profundos’

Um chatbot interativo, o ChatGPT foi lançado como um protótipo em novembro com muito alarde e, desde então, chamou a atenção de mais de 100 milhões de usuários. Mas nem todos os comentários foram positivos.

Uma crescente sensação de desconforto em relação à IA e suas implicações começou a fazer muitos, como Musk, hesitar.

No mês passado, o bilionário – que não está mais associado à OpenAI – juntou-se a dezenas de outros especialistas e executivos do setor para convocar todos os laboratórios de IA a pausar o treino de sistemas mais poderosos que o GPT-4 da OpenAI por pelo menos seis meses em 22 de março, em uma carta que desde então reuniu mais de 25.000 assinaturas.

Sustentando que a IA pode representar “riscos profundos para a sociedade e a humanidade”, os especialistas em IA afirmaram: “Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.”

Chamando a atenção da OpenAI em particular, os signatários também observaram que a própria organização havia recentemente reconhecido que, “em algum momento”, pode ser necessário impor limitações ao ritmo de crescimento desses sistemas.

“Nós concordamos”, eles escreveram. “Esse ponto é agora.”

No entanto, ao participar de uma discussão do Instituto de Tecnologia de Massachusetts em 13 de abril, o CEO da OpenAI, Sam Altman, disse que ele sentiu que a carta carecia de “nuances mais técnicas” sobre onde e como os esforços deveriam ser interrompidos.

Embora também tenha concordado que a segurança deveria ser uma preocupação, ele esclareceu que o laboratório não está atualmente treinando GPT-5.

“Não estamos e não o faremos por algum tempo”, disse Altman. “Então, nesse sentido, foi meio bobo.”

A entrevista “Tucker Carlson Tonight” de Musk vai ao ar em duas partes nos dias 17 e 18 de abril às 20h. E.T. Outros tópicos que ele abordará incluem sua aquisição do Twitter e planos futuros para a plataforma de mídia social.

Entre para nosso canal do Telegram

Assista também: