Reflection AI capta US$ 2 bilhões para competir com a China

Ex-pesquisadores do Google DeepMind lançam startup que busca ser a principal alternativa de IA aberta nos EUA, impulsionando inovação e competição global.

10/10/2025 11:29

3 min de leitura

Estados Unidos e China em Rota Competitiva na Inteligência Artificial

Os Estados Unidos e a China continuam a seguir caminhos distintos, porém competitivos, no desenvolvimento da inteligência artificial (IA). Enquanto os EUA focam em modelos de inteligência artificial geral (AGI) e suas principais empresas utilizam abordagens proprietárias, a China prioriza aplicações práticas e acessíveis, muitas delas baseadas em código aberto.

CONTINUA DEPOIS DA PUBLICIDADE

Reflection AI e o Investimento Bilionário

Um novo player, a Reflection AI, fundada em março de 2024 por ex-pesquisadores do Google DeepMind, Misha Laskin e Ioannis Antonoglou, obteve um investimento de US$ 2 bilhões em sua mais recente rodada, elevando sua avaliação para US$ 8 bilhões – um aumento impressionante de 15 vezes em relação aos US$ 545 milhões de sete meses atrás.

A Visão Aberta da Reflection AI

Inicialmente focada em agentes autônomos de codificação, a empresa se posiciona como uma alternativa de código aberto aos laboratórios fechados dos EUA, como OpenAI e Anthropic, e busca ser a contraparte ocidental das empresas chinesas de IA, como DeepSeek. Laskin, que liderou a modelagem de recompensas no projeto Gemini do DeepMind, e Antonoglou, co-criador do AlphaGo, sistema de IA que derrotou o campeão mundial no jogo de Go em 2016, baseiam sua proposta na crença de que talentos certos podem desenvolver modelos de IA avançados fora das grandes empresas tecnológicas.

Equipe de Elite e Infraestrutura Acessível

Com essa visão, a Reflection AI já recrutou uma equipe de aproximadamente 60 pessoas, composta principalmente por ex-pesquisadores de DeepMind e OpenAI, e desenvolveu uma infraestrutura de treinamento de IA que promete ser acessível a todos. Em entrevista ao TechCrunch, o CEO Laskin anunciou que a startup garantiu um cluster de computação robusto e pretende lançar um grande modelo de linguagem (LLM) avançado no próximo ano, treinado em “trilhões de tokens”.

Modelo MoE e o Risco Global

Esse modelo utilizará a arquitetura Mixture-of-Experts (MoE), aplicada em grandes laboratórios de IA para treinar modelos em larga escala. Até o lançamento da DeepSeek, em janeiro deste ano, esse tipo de treinamento estava restrito a versões fechadas da IA. Desde então, outros modelos chineses, como o Qwen, da Alibaba, seguiram o mesmo caminho. Laskin alerta que, se os EUA e seus aliados não agirem de forma decisiva, a liderança global em IA estará em risco. “Se não fizermos nada, os padrões globais de inteligência serão construídos por outros,” afirma.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Novas Iniciativas nos EUA

Apesar de se definir como “aberta”, a abordagem da Reflection AI parece mais alinhada com as estratégias adotadas pela Meta, com a família de modelos Llama, e pela francesa Mistral. Ou seja, a abertura refere-se ao acesso aos pesos de treinamento, não ao código propriamente dito. Devido ao sucesso dos modelos chineses, em agosto deste ano a pioneira OpenAI lançou seus dois primeiros modelos de IA desse tipo desde 2019. No dia seguinte, sua versão mais avançada do ChatGPT, o GPT-5, foi lançada com acesso gratuito, mas abordagem proprietária.

Novas Iniciativas de IA nos EUA

Além dos chatbots baseados em LLMs fechados de grandes empresas, novas iniciativas estão surgindo nos EUA para diversificar o desenvolvimento da IA. No começo deste mês, por exemplo, a Periodic Labs levantou US$ 300 milhões em uma rodada inicial com o objetivo de criar uma IA voltada para descobertas científicas.

Autor(a):