Um rumor percorre o Vale do Silício: os avanços da Inteligência Artificial (IA) para chegar ao nível do ser humano, marco repetido pelas grandes empresas que desenvolvem esta tecnologia, parecem estar desacelerando.

Desde o badalado lançamento do ChatGPT há dois anos, os gurus da IA afirmam que os recursos desta tecnologia terão uma aceleração exponencial à medida que as grandes empresas de tecnologia continuarem adicionando dados para aprimorar seu treinamento e aumentar seu poder de cálculo.

O raciocínio era que, se o poder de computação e o volume de dados usados por essa tecnologia fossem suficientes, surgiria a Inteligência Artificial Geral (AGI, na sigla em inglês), capaz de igualar ou superar a capacidade humana.

O progresso foi tão rápido que as principais figuras do setor, como Elon Musk, pediram uma moratória no desenvolvimento da IA. No entanto, os gigantes tecnológicos, incluindo o próprio Musk, seguiram em frente, gastando dezenas de bilhões de dólares para se manterem à frente na corrida.

A OpenAI, criadora do ChatGPT com apoio da Microsoft, recentemente arrecadou US$ 6,6 bilhões (R$ 38 bilhões na cotação atual) para financiar novos avanços.

A xAI, empresa de IA de Musk, está buscando investidores para um montante de US$ 6 bilhões para a compra de 100.000 chips da Nvidia, fabricante dos componentes necessários para o desenvolvimento da IA, informou a CNBC.

Mas o caminho rumo à AGI parece cheio de obstáculos.

Especialistas do setor estão percebendo que os grandes modelos de linguagem (LLM) não estão se expandindo tão rapidamente quanto o esperado. Apesar dos enormes investimentos, os aprimoramentos nesta tecnologia mostram sinais de estagnação.

Os valores de mercado alcançados por empresas “como a OpenAI e a Microsoft baseiam-se, em grande medida, na ideia de que os LLM se tornarão uma inteligência artificial geral com escalonamento contínuo”, diz Gary Marcus, especialista e crítico sobre IA.

– “Não há barreiras” –

Uma das principais restrições enfrentadas pelos desenvolvedores é que a quantidade de dados linguísticos para treinamento de IA é finita.

De acordo com Scott Stevenson, CEO da empresa de IA Spellbook, que trabalha com a OpenAI e outros provedores, concentrar o progresso no acúmulo de dados linguísticos “achando que ela (a IA) será mais inteligente” está fadado ao fracasso.

Já Sasha Luccioni, pesquisadora e diretora de IA da startup Hugging Face, diz que era previsível que esta corrida diminuísse, já que as empresas se concentram mais no tamanho do que no desenvolvimento de modelos e suas finalidades.

“A busca pela inteligência artificial sempre foi pouco realista, e a abordagem ‘maior é melhor’ da IA tinha que atingir um limite em algum momento, e acho que é isso que estamos vendo agora”, explica à AFP.

Os desenvolvedores de IA refutam estas ideias, argumentando que o progresso em direção à inteligência artificial igualitária é imprevisível.

“Não há barreiras”, declarou Sam Altman, fundador e CEO da OpenAI, na última quinta-feira, na rede X.

Apesar deste otimismo, a OpenAI atrasou o lançamento do sucessor do GPT-4 porque seu desempenho está abaixo do esperado, de acordo com fontes citadas pelo The Information.

Como resultado, a empresa está se concentrando em usar a capacidade de sua tecnologia de forma mais eficiente. A mudança de estratégia se reflete em seu modelo o1, projetado para dar respostas mais precisas por meio de um raciocínio aprimorado, em vez de aumentar os dados de treinamento.

Stevenson lembra que a decisão da OpenAI de ensinar seu modelo a “passar mais tempo pensando em vez de respondendo” resultou em “melhorias radicais”.

O CEO da Spellbook compara a IA à descoberta do fogo. Em vez de adicionar combustível a ele com dados e poder de computação, é hora de usá-lo para tarefas específicas.

“A abordagem homo sapiens de pensar antes de agir está chegando”, declarou Walter De Brouwer, professor da Universidade de Stanford.

arp-gc/adp/dga/ag/mel/yr/dd