DeepSeek abala os alicerces da Inteligência Artificial

deepseek abala os alicerces da inteligência artificial

Na última semana, a DeepSeek, startup chinesa de inteligência artificial, colocou a OpenAI em alerta com seu novo modelo R1, após já ter causado desconforto na Meta com o modelo V3. A tensão entre as gigantes do setor se espalhou mais rápido do que o previsto, e a empresa chinesa não só dominou as manchetes globais, ultrapassando o círculo de especialistas, como também impactou os mercados financeiros na segunda-feira. O motivo? A promessa de uma revolução econômica e um sinal de alerta geopolítico sobre a disputa tecnológica global, com a China avançando na corrida da IA a custos significativamente menores.

Os investidores passaram a projetar um cenário em que a inteligência artificial pode se tornar mais barata e acessível do que se imaginava. A lógica é simples: quanto menos as empresas gastarem em infraestrutura (como chips e energia), maior será sua lucratividade. Essa perspectiva desafia a regra vigente até então, que vinculava sucesso a investimentos bilionários. O avanço da DeepSeek sugere que a demanda por recursos computacionais e energéticos na IA talvez não seja infinita, como muitos temiam.

Os reflexos foram imediatos: as ações da Nvidia caíram até 17%, as da Oracle (parceira do Projeto Stargate de US$ 500 bilhões) despencaram 15%, e as da Broadcom recuaram mais de 19%. No total, empresas de tecnologia e energia perderam mais de US$ 1,2 trilhão em valor de mercado, embora sinais de recuperação já surjam. Satya Nadella, CEO da Microsoft, resumiu o cenário em um post no X: “O paradoxo de Jevons ataca novamente! Quanto mais a IA se torna eficiente e barata, mais seu uso se expande, transformando-a em uma commodity indispensável.” O conceito citado por Nadella explica que ganhos de eficiência tecnológica podem, paradoxalmente, aumentar a demanda por recursos.

Grandes fundos de venture capital analisam o movimento com cautela, buscando oportunidades em meio à turbulência. Curiosamente, a revolução da DeepSeek pode até impulsionar a demanda por chips de IA — tanto da Nvidia quanto de concorrentes —, mas deve redefinir avaliações infladas de empresas de infraestrutura. Gigantes como Google, Meta, Amazon e Microsoft, que planejavam gastar US$ 300 bilhões em 2024 em custos computacionais, agora revisam suas estratégias. A questão central: é possível replicar os resultados da DeepSeek com investimentos menores?

A DeepSeek não só reduziu custos, mas também liberou seus modelos como open source, desafiando soluções proprietárias. Essa abertura pode democratizar o acesso à tecnologia e estimular concorrência. William Falcon, CEO da Lightning AI, prevê: “Se modelos open source forem capazes e quase gratuitos, empresas migrarão em massa de plataformas pagas, como a OpenAI.” Até Sam Altman, CEO da OpenAI, reconheceu o impacto: “O R1 da DeepSeek é impressionante pelo custo-benefício. Claro, lançaremos modelos melhores, mas a concorrência é saudável!” Em resposta, a OpenAI liberou seu modelo O3-Mini para usuários gratuitos do ChatGPT, embora o efeito financeiro dessa decisão ainda seja incerto.

A revolução na IA está apenas começando. Para alguns investidores, como Andrew Ng (AI Fund) e Michael Mignano (Lightspeed), a redução de custos abrirá espaço para startups inovadoras, impulsionando agentes de IA especializados e aplicativos inteligentes. Enquanto isso, empresas como Anthropic, Cohere e Mistral enfrentam pressão para revisar seus modelos de negócio. O “momento Sputnik da IA”, como definiu Marc Andreessen, já começou — e quem não se adaptar pode ficar para trás nesta nova era.

O criador – Liang Wenfeng, nascido em Guangdong, China, em 1985, é bacharel e mestre em engenharia eletrônica e da informação pela Universidade de Zhejiang. Antes de fundar a DeepSeek, trabalhou no setor financeiro como chefe do fundo hedge High-Flyer, especializado em operações quantitativas com inteligência artificial. Com um investimento inicial de 10 milhões de yuans (cerca de US$ 1,4 milhão), ele lançou a DeepSeek com o objetivo de desenvolver inteligência artificial de próxima geração, buscando criar sistemas que imitem o raciocínio humano com eficiência.

Especialistas em Inteligência Artificial analisam o caso – O lançamento do DeepSeek-R1 chamou a atenção do mundo tecnológico não apenas por suas inovações, mas também pela transparência que oferece em relação ao seu funcionamento. Em entrevista à BBC News Brasil, o professor Cleber Zanchettin, do Centro de Informática da Universidade Federal de Pernambuco, destacou que o modelo se diferencia por adotar uma abordagem de código aberto, algo incomum em comparação com concorrentes como ChatGPT e Claude, que operam com sistemas de código fechado. “Eles contaram coisas que não haviam sido divulgadas por outros fabricantes“, observou Zanchettin, ressaltando a importância dessa transparência para a pesquisa em inteligência artificial.

Zanchettin também elogiou o recurso de raciocínio explícito do DeepSeek, que permite aos usuários acompanhar o processo de tomada de decisão do modelo. “A maioria das empresas não queria que a gente entendesse direito como o modelo raciocina“, disse o professor, enfatizando que essa função pode ajudar os especialistas a avaliar a robustez e a confiabilidade das respostas oferecidas pelo chatbot. Além disso, o método de aprendizagem por reforço utilizado pelo DeepSeek, que requer menos supervisão humana, representa uma mudança significativa na forma como modelos de IA são treinados.

O professor argumentou que a capacidade do DeepSeek de prosperar sem os melhores chips disponíveis no mercado, devido a restrições de importação, exemplifica como a inovação pode surgir em condições desafiadoras. “A dificuldade gera oportunidade”, afirmou Zanchettin, sugerindo que essa abordagem pode democratizar o acesso e permitir que mais entidades, incluindo pesquisadores brasileiros, entrem na corrida pela inovação em inteligência artificial. A análise de Zanchettin indica que o DeepSeek-R1 não é apenas um novo concorrente, mas um modelo que pode redefinir as regras do jogo na indústria de IA.

Em suma, a análise de Cleber Zanchettin revela que o DeepSeek-R1 não é apenas um novo competidor na arena da inteligência artificial, mas também um modelo que pode redefinir as regras do jogo, promovendo uma maior transparência e acessibilidade na pesquisa e desenvolvimento de tecnologias de IA.

Na esteira dos acontecimentos – O sucesso da DeepSeek tem inspirado outras startups chinesas, como a Moonshot e a Zhipu. Para Peter Barrett, sócio-geral da Playground Global, esse fenômeno reforça uma ideia fundamental: o talento em engenharia está espalhado pelo mundo, e nenhuma nação detém o monopólio sobre ele.

Enquanto isso, a ByteDance, dona do TikTok, entrou na disputa anunciando seu próprio agente de raciocínio, o UI-TARS. A empresa afirma que ele supera o GPT-4 da OpenAI, o Claude da Anthropic e o Gemini do Google em determinados benchmarks. Com a capacidade de ler interfaces gráficas, raciocinar e tomar decisões de forma autônoma, passo a passo, o UI-TARS se posiciona como um forte concorrente no setor.

A Meta, por outro lado, enfrenta desafios. De uma posição de liderança no desenvolvimento de modelos open source, viu-se superada pela DeepSeek. Embora seus modelos sejam gratuitos, desenvolvedores relatam que a execução tende a ser mais cara do que a da OpenAI. Isso se deve, em parte, ao fato de que a OpenAI pode reduzir custos ao agrupar milhões de consultas de clientes, algo que empresas menores não conseguem replicar.

O crescimento da DeepSeek também trouxe desafios. O modelo R1 se tornou alvo de ataques cibernéticos, levando a empresa a restringir o registro de novos usuários. Ainda assim, a startup segue inovando e acaba de lançar o Janus-Pro-7B, um modelo de IA open source e multimodal, que supera o DALL-E 3 e o Stable Diffusion em benchmarks visuais, como geração de imagens e raciocínio.

Além disso, o DeepSeek R1 já está disponível no Perplexity para suporte à busca na deep web. Importante ressaltar que ele está hospedado em data centers nos EUA e na União Europeia, e a Perplexity garante que os dados não serão transferidos para fora desses servidores ocidentais. Apesar dos avanços, o modelo ainda apresenta desafios, como imprecisões, questões de privacidade e confiabilidade.

O sucesso da empresa não representa uma ameaça à Nvidia, já que seus modelos operam utilizando chips da fabricante, o que reforça a posição da gigante dos semicondutores no mercado.

Por fim, a tendência de modelos cada vez maiores parece estar perdendo força em 2024. A indústria começa a se mover em direção a um novo regime de pós-treinamento, conforme apontou Dario Amodei, da Anthropic, em uma entrevista durante o Fórum Econômico Mundial, em Davos.

Texto: Redação TI Rio

Pesquise no TI RIO