* De Boston (EUA)
A indústria de tecnologia vive um momento de incerteza em relação a tecnologias de inteligência artificial. Esta foi a principal mensagem de Matt Hicks, CEO da Red Hat, durante o Red Hat Summit 2025, realizado nesta semana em Boston (EUA).
“Muitos conceitos que conhecemos há anos estão mudando, e podem se tornar irreconhecíveis em breve com o avanço da IA. Por outro lado, há muitos outros fatores que também são importantes quando falamos de criar valor para o negócio”, disse o executivo a uma plateia de cerca de 7 mil pessoas.
Aposta na abordagem aberta
Em uma fala de tom otimista, Hicks propôs uma abordagem open source como a solução para empresas que querem superar as atuais dificuldades no uso da IA e aplicar essa tecnologia de modo mais efetivo em suas áreas de atuação.
A abordagem open source, já bastante conhecida no mundo do software livre, permite a criação de aplicações por coletivos de pessoas e com o código público e aberto. É uma abordagem oposta ao software fechado, em que o código é normalmente controlado por apenas uma empresa e é “fechado”, ou seja, não é acessível por quem usa a aplicação.
“Ainda há muitas questões a resolver com relação a IA, principalmente em relação à propriedade intelectual. Se a IA ajuda a implementar um projeto, a propriedade do código é sua ou do fornecedor de IA? Como mantemos as regras de atribuição e compartilhamento de conhecimento que impulsionaram a indústria do software livre? Quando passamos por uma disrupção tecnológica tão grande, nunca haverá consenso. Mas acredito que podemos concordar em uma coisa: a IA pode despertar um potencial enorme em negócios pois, da mesma forma que o software open source, a IA remove barreiras”, disse Hicks.
Com DNA open source desde os anos 1990, quando nasceu como uma das muitas empresas que forneciam soluções baseadas em Linux para empresas e pessoas físicas, a Red Hat vem apostando na continuidade dessa abordagem aberta também na nuvem, com a plataforma OpenShit, e agora também na área de IA.
Um servidor para IA
Como mais um exemplo desta aposta, durante o evento a empresa anunciou o Red Hat AI Inference Server, uma camada de software baseada no Red Hat Linux para servidores de grandes corporações.
A solução foi especialmente desenvolvida para rodar cargas de aplicações de IA generativa. Do lado do hardware, é compatível com processadores de empresas como a Nvidia Intel, AMD, Google e AWS. Do lado dos modelos de linguagem, pode ser integrado com Llama (Meta), Gemma (Google) e Phi (Microsoft), entre outros LLMs. Ou seja, a Red Hat mantém a estratégia de trabalhar como uma integradora de soluções de cloud e IA, fazendo a ponte entre empresas de hardware, cloud e IA.
Ao detalhar o anúncio em coletiva de imprensa, Chris Wright, CTO da Red Hat, comentou sobre a competição dos modelos de linguagem (LLMs) open source com alternativas proprietárias, como o ChatGPT e o Gemini.
“Inicialmente, toda a atenção do mercado ficou voltada para os modelos multimilionários e proprietários. Mas gradativamente as alternativas open source vêm provando que é possível fazer muita coisa com modelos menores e mais ‘leves’. Vemos que cada vez mais a diferença entre os grandes modelos e as alternativas mais enxutas vem diminuindo”, disse.
* O jornalista viajou a convite da Red Hat