Debate Acirrado: Cientista da Meta refuta ideias de superinteligência da OpenAI

debate acirrado cientista da meta refuta ideias de superinteligência da openai

De acordo com matéria publicada no Estadão, Yann LeCun criticou declarações de Sam Altman e afirmou que ainda estamos longe de uma IA com inteligência humana.

Dois dos maiores nomes da inteligência artificial (IA) travaram um debate acalorado durante a Consumer Electronics Show (CES) 2025, um dos maiores eventos de tecnologia do mundo. Yann LeCun, cientista-chefe de IA da Meta, contestou publicamente as afirmações de Sam Altman, CEO da OpenAI, sobre a possibilidade de criação de uma inteligência artificial geral (AGI, na sigla em inglês) em um futuro próximo. Para LeCun, a ideia de que a OpenAI já teria o conhecimento necessário para desenvolver uma AGI é “loucura”.

A polêmica começou após Altman publicar em seu blog pessoal que a OpenAI já detém o conhecimento para construir uma AGI, tecnologia que poderia superar a capacidade do cérebro humano. O CEO afirmou ainda que, já em 2025, agentes de IA poderiam “se juntar à força de trabalho” e se tornar ferramentas semelhantes a uma AGI.

LeCun, no entanto, rebateu as declarações de Altman, argumentando que a definição de AGI é complexa e que igualá-la simplesmente ao nível de inteligência humana é uma visão simplista. “Acho que é uma definição terrível”, disse o cientista. “O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam para designar uma inteligência no nível humano, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos. Somos superespecializados.”

O cientista da Meta destacou que a capacidade de uma IA de superar humanos em tarefas específicas, como passar em exames ou atingir notas máximas em testes de conhecimento, não significa que ela tenha alcançado um nível humano de inteligência. Para ele, a inteligência humana envolve complexidades que vão além da lógica e do raciocínio.

“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse que, ao atingi-las, teria alcançado a inteligência humana. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou LeCun durante o evento.

Regulação da IA: um debate necessário – Além do debate sobre AGI, LeCun também abordou a questão da regulação da inteligência artificial. O cientista defende que a regulamentação deve ser aplicada apenas na camada de aplicação da tecnologia, e não no desenvolvimento dos modelos. Ele alertou que regular o processo de pesquisa e desenvolvimento pode limitar a autonomia das empresas e inibir a inovação.

A Meta, empresa de Mark Zuckerberg, é dona de um dos modelos de IA mais conhecidos do mercado, o Llama, que é de código aberto e alimenta diversos aplicativos de IA. Para LeCun, a responsabilidade pelo uso indevido da tecnologia não deve recair sobre os desenvolvedores dos modelos.

“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou. “Se houver algum tipo de responsabilidade em cascata, será como autorizar processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim.”

Enquanto a OpenAI e a Meta seguem caminhos diferentes no desenvolvimento da IA, o debate entre LeCun e Altman reflete as divergências sobre o futuro da tecnologia e os desafios éticos e técnicos que ainda precisam ser superados.

Texto: Redação TI Rio

Pesquise no TI RIO