Apesar de toda a badalação em torno do ChatGPT, a tendência do mercado é que nenhum grande modelo de linguagem (LLM) domine o mercado das aplicações de IA generativa. Essa foi umas das principais mensagens deixadas pela AWS – subsidiária de serviços de cloud da Amazon – no evento AWS Summit 2024, realizado nesta quinta-feira (15) em São Paulo.
“Não oferecemos apenas nossos modelos. Nós reunimos os melhores fornecedores de modelos do mundo. Pois para nós a questão da IA vai muito além do modelo, e não há uma solução única para o mercado”, disse Vasi Philomin, VP de IA generativa da AWS, em encontro com jornalistas durante o evento.
Contra o ChatGPT, apoiado pela Microsoft em parceria com a OpenAI, a aposta da AWS é o Bedrock, uma plataforma que dá acesso a vários modelos de linguagem, incluindo o Llama 3, da Meta, LLMs de startups como Anthropic e Cohere e ainda aos modelos Titan, criados pela própria AWS.
O fator Nvidia
Assim com seus principais concorrentes, a AWS compra os chips da Nvidia para rodar aplicações de IA em sua nuvem. Fundada e chefiada pelo taiwanês Jensen Huang, a Nvidia viu seu valor de mercado disparar nos últimos dois anos, embalada pela demanda cada vez maior por processadores para aplicações de IA após o surgimento do ChatGPT.
Além dos chips da Nvidia, a AWS tem seus próprios processadores para aplicações de IA. A aposta na área de hardware está relacionada a custo. “Parte do desafio de levar a IA ao mercado é o custo das operações de inferência e treinamento dos LLMs. Ao fazer nossos próprios chips, nós conseguimos reduzir este custo”, diz Philomin.
Segundo o executivo, em alguns casos os chips da Amazon podem ter custo de uso até 40% menor do que o de processadores similares de outras empresas, para aplicações na nuvem da AWS. A empresa atualmente tem duas linhas de chips: Inferentia e Trainium.
Além do fator custo, a oferta de vários chips também surge a partir da demanda de clientes, segundo Philomin. “Assim como ocorre com os modelos de IA, não há uma solução única para todo o mercado. Nossos clientes querem ter opções. Temos uma ótima relação com a Nvidia e provavelmente somos um dos maiores clientes deles. Mas também precisamos focar na questão do custo de processamento, e é onde nossos chips entram na discussão. Sempre haverá clientes que usarão um ou outro processador, dependendo da aplicação”, afirmou.