Nvidia aposta na inferência com parceria de US$ 20 bilhões com a Groq, impulsionando a nova era da IA e desafiando o mercado de treinamento.
Um acordo de US$ 20 bilhões entre a Nvidia e a Groq, anunciado em dezembro de 2023, sinaliza uma mudança fundamental na estratégia da indústria de inteligência artificial. A Nvidia, que se estabeleceu como líder na fabricação de GPUs – chips cruciais para o treinamento de modelos de IA – agora direciona seus investimentos para a inferência, o processo de utilização de modelos já treinados.
CONTINUA DEPOIS DA PUBLICIDADE
Analistas da RBC Capital preveem que a inferência se tornará a principal carga de trabalho da IA, potencialmente superando o mercado de treinamento em volume.
A inferência demanda velocidade, previsibilidade, eficiência energética e custo por resposta, características distintas das GPUs, otimizadas para o treinamento. A Groq, fundada por ex-engenheiros do Google, desenvolve as chamadas LPUs (Unidades de Processamento de Linguagem), projetadas especificamente para essa finalidade.
Ao contrário das GPUs, que operam com múltiplas tarefas, as LPUs utilizam execução fixa e planejada, reduzindo a latência e o desperdício de energia.
Tony Fadell, investidor da Groq, destaca que a indústria de IA está em um novo ponto de inflexão. “As GPUs venceram decisivamente a primeira onda dos data centers de IA: o treinamento. Mas a inferência sempre seria o verdadeiro jogo em volume, e as GPUs, por projeto, não são otimizadas para isso”, escreveu o executivo no LinkedIn.
CONTINUA DEPOIS DA PUBLICIDADE
Chris Lattner, que participou do desenvolvimento das TPUs do Google, ressalta que a expansão para além das GPUs é impulsionada pela diversidade das cargas de trabalho de IA e pela especialização de hardware, que leva a “enormes ganhos de eficiência”.
A parceria com a Groq é vista como uma estratégia de prevenção da Nvidia. Em vez de perder espaço para concorrentes focados em inferência, a empresa optou por incorporar uma arquitetura diferente em seu portfólio. A Nvidia também desenvolveu o NVLink Fusion, tecnologia que permite a conexão direta de chips personalizados às GPUs da empresa, ampliando a integração de diferentes tipos de hardware.
A empresa continua aprimorando suas GPUs, buscando um ambiente híbrido onde GPUs e ASICs personalizados operam lado a lado, cada um otimizado para diferentes tipos de carga de trabalho.
A inferência é a etapa que permite aos produtos de IA gerar receita. Essa fase é considerada crucial para validar a viabilidade de investimentos bilionários em data centers de IA. A tendência é que os data centers de IA caminhem para um modelo híbrido, onde GPUs e ASICs personalizados operam lado a lado, cada um otimizado para diferentes tipos de carga de trabalho.
Autor(a):
Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!