O físico Stephen Hawking alertou que as novas tecnologias provavelmente irão trazer “novas situações que poderão ser negativas” para a sobrevivência humana.
Ao ser questionado se o mundo vai acabar “naturalmente” ou se o homem iria destruí-lo, Hawking disse que cada vez mais a maior parte das ameaças contra a humanidade vem do progresso feito em ciência e tecnologia. Elas incluem a guerra nuclear, um catastrófico aquecimento global e os vírus geneticamente modificados, disse ele.
Hawking fez comentários durante a gravação anual do programa Reith Lectures, da BBC, no dia 7 de janeiro. Sua palestra sobre a natureza dos buracos negros foi dividida em duas partes e foi transmitida via rádio nos dias 26 de janeiro e 2 de fevereiro.
O professor da Universidade de Cambridge disse que um desastre na Terra – com “quase certeza” nos próximos 1.000 a 10.000 anos – possivelmente não vai significar o fim da humanidade, porque nessa época os seres humanos já poderão se transportar para o espaço e para outras estrelas.
“No entanto, não vamos estabelecer colónias auto-suficientes no espaço nos próximos cem anos, pelo menos, por isso temos que ter muito cuidado neste período”, brincou ele, provocando risos da platéia.
“Nós não vamos parar de fazer progresso, ou revertê-lo, por isso temos que reconhecer os perigos e controlá-los. Eu sou um otimista, e eu acredito que podemos fazer isso.”, acrescentou.
Um dos hobbies de Hawking é o incentivo da criação da inteligência artificial compassiva (A.I.). Em julho, Hawking assinou uma carta, juntamente com Elon Musk e Steve Wozniak, clamando para a proibição das armas autônomas, e em outubro, ele participou de um programa de perguntas e respostas para o Reddit, dedicado exclusivamente à questão do risco da AI.
Leia também:
• Bill Gates alerta que inteligência artificial é ameaça a humanidade
• Ameaça à humanidade
• Se o fim do mundo chegasse você estaria preparado? Estes caras estão
“Devemos mudar a meta da AI de criar inteligência artificial deliberada, para a criação de inteligência benéfica”, escreveu Hawking. “Pode-se levar décadas para descobrir como fazer isso, então vamos começar a investigar desde já, ao em vez de acordarmos nas vésperas da implantação do primeiro AI.”
A preocupação, disse Hawking, não é que um cientista mal intencionado possa fabricar uma máquina maléfica em um laboratório, mas que um AI concebido para fins normais possa não funcionar como esperado e acabar prejudicando a humanidade indiretamente.
“O risco real com AI não é a maldade, mas a competência. A AI superinteligente será extremamente boa em realizar seus objetivos, e se essas metas não estão alinhadas com a nossa, estaremos em apuros”, declarou Hawking. “Você provavelmente não é um avêsso a formigas, que pisa em formigueros, mas se você estiver no comando de um projeto de energia hidrelétrica e houver um formigueiro na região a ser inundada, isso será muito ruim para as formigas. Não vamos colocar a humanidade na posição das formigas. ”
As Associated Press contribuíram para esta matéria.