Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
O ponto em que a inteligência artificial rivaliza com a inteligência de um humano típico ainda está a mais de cinco anos de distância, de acordo com um líder de IA da Meta Platforms Inc.
Em 8 de janeiro, Yann LeCun, vice-presidente e cientista chefe de IA da gigante de mídia social e empresa de tecnologia de Menlo Park, Califórnia, expressou ceticismo sobre os comentários feitos recentemente pelo CEO da OpenAI, Sam Altman, de que a indústria de tecnologia poderia em breve desenvolver a chamada inteligência artificial geral, ou AGI.
“Não vejo isso até cinco ou seis anos [depois]”, disse LeCun em um evento de painel realizado no Consumer Electronics Show de 2025 em Las Vegas.
Em uma postagem de blog recente, Altman disse que a OpenAI está se aproximando do desenvolvimento de um modelo de AGI funcional.
“Agora estamos confiantes de que sabemos como construir AGI como tradicionalmente a entendemos”, escreveu Altman na postagem publicada em 5 de janeiro. “Acreditamos que, em 2025, podemos ver os primeiros agentes de IA ‘se juntarem à força de trabalho’ e mudar materialmente a produção das empresas.”
Primeiro, LeCun disse que não apoia a comparação da AGI com a inteligência de nível humano. Os humanos são pensadores abstratos que usam pistas visuais, auditivas e táteis — entre outras — para entender o mundo ao seu redor. Atualmente, a IA mais avançada está usando apenas palavras para entender o mundo e não está perto de atingir o nível de inteligência que um ser que processa informações visuais com seus olhos pode atingir.
Segundo, LeCun disse que um robô alimentado por AGI não poderia fazer o trabalho de um encanador agora. A tecnologia robótica existe para interagir com sistemas complicados, e a IA não pode replicar o trabalho de comerciantes qualificados.
“Não estamos nem perto de igualar a compreensão do mundo físico de um animal como um gato ou um cachorro”, disse LeCun.
Além disso, a inteligência artificial ainda não está demonstrando o que LeCun chamou de senso comum. Durante anos, os tecnólogos previram que um computador mais inteligente do que um humano está logo ali. Por exemplo, um programa de IA que joga xadrez sabe jogar xadrez melhor do que um humano apenas porque foi programado para entender movimentos de xadrez e fazer uma resposta vencedora. O programa que joga xadrez não tem muitas outras aplicações práticas.
Para realmente replicar a inteligência de nível humano, a IA precisa ser capaz de raciocinar e planejar uma sequência de ações como a mente humana faz.
No momento, a IA generativa trabalhando em grandes modelos de linguagem — como o ChatGPT — busca a sequência certa de palavras para responder a uma pergunta e renderiza uma resposta com base em seu processamento. Ela não raciocina verdadeiramente da maneira que um cérebro humano faz, disse LeCun.
LeCun disse que para atingir esse feito, a arquitetura de rede por trás da IA generativa precisaria mudar substancialmente.
A IA atualmente não tem a capacidade de processar informações visuais como os humanos. Até que a IA possa treinar em mais do que texto, ela não atingirá um nível humano de inteligência.
“É sempre mais difícil do que pensamos”, disse LeCun sobre a criação de um sistema de IA que pode ser tão inteligente quanto um humano. “Tem sido uma espécie de história repetida da IA que as pessoas ficaram tão entusiasmadas com as capacidades da nova técnica que acabaram de criar e acabaram se decepcionando.”