03/12/2024 - 14:46
* De Las Vegas, EUA
Maior provedor de nuvem pública do mundo, a AWS – divisão de nuvem da Amazon – anunciou nesta terça-feira (3) novidades em suas soluções de tecnologia, incluindo aquelas voltadas para inteligência artificial. Os principais destaques foram os aprimoramentos do Bedrock, aplicação que serve como porta de entrada para uso de várias soluções de IA generativa.
O principal recurso anunciado foi o Amazon Bedrock Model Distillation. O nome complicado basicamente significa que o recurso permite criar modelos de linguagem mais enxutos e rápidos a partir de versões maiores e mais pesadas do mesmo modelo. Esse processo de ‘transferência de conhecimento’ de um modelo maior para um menor é conhecido como distillation.
“Existem atualmente muitos modelos de linguagem, alguns grandes e pesados, outros leves e focados em resolver problemas mais simples. É possível transferir conhecimento de um modelo maior para um menor, mas para isso é necessário muito tempo e pessoal especializado. Com o Bedrock Distillation, esse processo fica muito mais rápido para os modelos de linguagem que rodam em nossa plataforma Bedrock”, disse Matt Garman, CEO da AWS, durante o AWS re:Invent 2024, conferência anual da empresa realizada em Las Vegas (EUA).
Garman afirmou ainda que os modelos gerados a partir do processo de distillation podem ser até 500% mais rápidos e 75% mais baratos do que os modelos originais.
Outra novidade anunciada foi o Automated Reasoning Checks, recurso por meio do qual o Bedrock vai conferir as respostas fornecidas pelos modelos IA a fim de evitar as famosas ‘alucinações’, na prática, respostas erradas. Para fazer essa checagem, o Bedrock usará o processo conhecido como Automated Reasoning, baseado em algoritmos matemáticos.
Uma terceira novidade anunciada para o Bedrock é a criação de um “superagente de IA”. Com o recurso Multi-agent collaboration, é possível criar um programa de IA responsável por coordenar a atividade de outros programas, conhecidos como agentes. O recurso é voltado principalmente para grandes empresas, que cada vez mais usam agentes de IA para agilizar processos. Com o novo recurso, o “superagente” vigia e coordena as ações dos outros programas a fim de executar tarefas que exigem o uso de várias aplicações de forma integrada.
A corrida da IA
Desde o lançamento do ChatGPT no fim de 2023, as grandes empresas de nuvem correm para oferecer soluções de IA generativa para as empresas dos mais variados segmentos. Por meio de uma parceria com a OpenAI, a Microsoft é fornecedora exclusiva dos modelos da família ChatGPT.
O Google concentra seus esforços nos modelos da família Gemini, desenvolvidos internamente. Já a AWS, além do modelo próprio Titan, aposta forte na parceria com a Anthropic, criadora dos modelos Claude. E o Bedrock serve como uma “loja de aplicativos” de modelos de IA, permitindo aos clientes escolherem o modelo mais adequado para cada tarefa. Modelos de código aberto, como o Llama, da Meta, também rodam via Bedrock na AWS.
* O jornalista viajou a convite da AWS