Nvidia aposta em inferência com parceria de US$ 20 bilhões com Groq

Nvidia aposta na inferência com parceria de US$ 20 bilhões com a Groq, impulsionando a nova era da IA e desafiando o mercado de treinamento.

2 min de leitura

(Imagem de reprodução da internet).

A Nova Era da Inteligência Artificial: Nvidia e a Aposta na Inferência

Um acordo de US$ 20 bilhões entre a Nvidia e a Groq, anunciado em dezembro de 2023, sinaliza uma mudança fundamental na estratégia da indústria de inteligência artificial. A Nvidia, que se estabeleceu como líder na fabricação de GPUs – chips cruciais para o treinamento de modelos de IA – agora direciona seus investimentos para a inferência, o processo de utilização de modelos já treinados.

CONTINUA DEPOIS DA PUBLICIDADE

Analistas da RBC Capital preveem que a inferência se tornará a principal carga de trabalho da IA, potencialmente superando o mercado de treinamento em volume.

A Inferência: Um Desafio Diferente

A inferência demanda velocidade, previsibilidade, eficiência energética e custo por resposta, características distintas das GPUs, otimizadas para o treinamento. A Groq, fundada por ex-engenheiros do Google, desenvolve as chamadas LPUs (Unidades de Processamento de Linguagem), projetadas especificamente para essa finalidade.

CONTINUA DEPOIS DA PUBLICIDADE

Ao contrário das GPUs, que operam com múltiplas tarefas, as LPUs utilizam execução fixa e planejada, reduzindo a latência e o desperdício de energia.

A Visão de Especialistas

Tony Fadell, investidor da Groq, destaca que a indústria de IA está em um novo ponto de inflexão. “As GPUs venceram decisivamente a primeira onda dos data centers de IA: o treinamento. Mas a inferência sempre seria o verdadeiro jogo em volume, e as GPUs, por projeto, não são otimizadas para isso”, escreveu o executivo no LinkedIn.

CONTINUA DEPOIS DA PUBLICIDADE

LEIA TAMBÉM!

Chris Lattner, que participou do desenvolvimento das TPUs do Google, ressalta que a expansão para além das GPUs é impulsionada pela diversidade das cargas de trabalho de IA e pela especialização de hardware, que leva a “enormes ganhos de eficiência”.

Estratégias e Inovações

A parceria com a Groq é vista como uma estratégia de prevenção da Nvidia. Em vez de perder espaço para concorrentes focados em inferência, a empresa optou por incorporar uma arquitetura diferente em seu portfólio. A Nvidia também desenvolveu o NVLink Fusion, tecnologia que permite a conexão direta de chips personalizados às GPUs da empresa, ampliando a integração de diferentes tipos de hardware.

A empresa continua aprimorando suas GPUs, buscando um ambiente híbrido onde GPUs e ASICs personalizados operam lado a lado, cada um otimizado para diferentes tipos de carga de trabalho.

O Impacto da Inferência na Economia da IA

A inferência é a etapa que permite aos produtos de IA gerar receita. Essa fase é considerada crucial para validar a viabilidade de investimentos bilionários em data centers de IA. A tendência é que os data centers de IA caminhem para um modelo híbrido, onde GPUs e ASICs personalizados operam lado a lado, cada um otimizado para diferentes tipos de carga de trabalho.

Sair da versão mobile