DeepSeek V4 por trás do colapso: o Vale do Silício está "construindo muros", a China está "construindo estradas"

nulo

Escrito | Alterar

Na manhã de 24 de abril, o DeepSeek V4, que chegou atrasado, finalmente revelou sua verdadeira face.

Nesse dia, o DeepSeek-V4-Pro conquistou o topo da lista de modelos de código aberto do Hugging Face, com duas “inovações de nível nuclear” sendo amplamente discutidas:

Primeiro, um contexto ultra longo de milhões de tokens, mas com cache KV apenas 10% do V3.2, sendo elogiado por engenheiros da Amazon como uma solução para a escassez de HBM;

Segundo, a adaptação a chips nacionais, com colaboração estreita com a Huawei durante o desenvolvimento, e a primeira adaptação rápida aos chips nacionais como Ascend e Cambricon.

Por coincidência, o segundo colocado na lista de modelos de código aberto do Hugging Face é justamente o Kimi K2.6, lançado e aberto ao público na madrugada de 20 de abril.

Se estivermos do lado do Pacífico, a colisão de dois modelos de bilhões de parâmetros inevitavelmente leva a disputas por avaliação e domínio comercial, mas no país, uma cena completamente diferente se desenrola: sem troca de acusações, sem guerras de relações públicas sob corrente subterrânea, e até com uma “troca de defesa” na base tecnológica.

Por trás do “extraordinário”, há uma divergência na rota tecnológica de IA entre China e EUA: o Vale do Silício está fervorosamente construindo “muros altos”, tentando proteger interesses adquiridos com código fechado; enquanto fabricantes de grandes modelos nacionais optam por “desmantelar os muros”, evoluindo colaborativamente na terra do código aberto.

01 Vale do Silício mergulhado no “jogo de poder”

Ao contrário da rota de código aberto de múltiplos modelos no país, onde há uma diversidade de projetos, os principais líderes de IA do Vale do Silício — OpenAI, Anthropic, Google Gemini — são todos defensores do código fechado.

A inovação tecnológica de ponta fica presa em seus próprios data centers, e diante do peso do custo computacional e das expectativas do mercado de capitais, o “espírito do Vale” — conhecido por sua abertura e colaboração — está lentamente desaparecendo, levando os atores a um jogo de soma zero de “jogo de poder”.

Nos últimos dois anos, as “guerras silenciosas” evoluíram para confrontos públicos, sendo a tática mais comum a “roubar o holofote”: ao lançar uma atualização importante na hora de um concorrente, para suprimir sua voz, isso se tornou uma prática padrão no Vale.

Em maio de 2024, OpenAI e Google lançaram simultaneamente novos produtos de IA: um dizendo que GPT-4o lidera globalmente, o outro afirmando que a família Gemini cobre todo o ecossistema e todos os caminhos. Os CEOs de ambas as empresas não resistiram e trocaram provocações nas redes sociais.

Não foi só a disputa com o Google; a rivalidade entre OpenAI e Anthropic também entrou em fase de intenso confronto: em 16 de abril, a Anthropic lançou seu novo modelo Claude Opus 4.7, e pouco mais de duas horas depois, a OpenAI anunciou uma grande atualização do Codex, com o slogan “Codex para (quase) tudo)”. É claro para todos que a colisão de cronogramas não foi coincidência, mas uma “emboscada” cuidadosamente planejada pela OpenAI contra a Anthropic.

Além do “debate verbal”, as “revelações de segredos” também se tornaram rotina no Vale.

Em 7 de abril, a Anthropic anunciou com grande destaque uma receita anual de 30 bilhões de dólares, superando os 25 bilhões da OpenAI.

Uma semana depois, o diretor de receita da OpenAI, em uma carta interna aos funcionários, afirmou abertamente que a receita de 30 bilhões de dólares da Anthropic era seriamente inflada, pois usava o “método de soma total”, incluindo toda a comissão recebida de provedores de nuvem como Amazon e Google, inflando sua receita total e superestimando em cerca de 8 bilhões de dólares.

Essa tática de “desmascarar o adversário” dentro da própria indústria de tecnologia não é comum, e seu objetivo é basicamente mostrar aos investidores que a narrativa de crescimento da Anthropic é inflada.

Quando a hostilidade cresce, ela pode afetar todas as decisões.

Após a Anthropic romper contratos por incluir cláusulas de segurança específicas com o Pentágono, a OpenAI anunciou horas depois uma parceria com o Departamento de Defesa dos EUA.

Na final do “Super Bowl” de 2026, a Anthropic investiu pesado em um anúncio dizendo: “Anúncio entrando na área de IA, mas não na Claude.” Uma provocação direta à OpenAI, que começava a testar sua funcionalidade de anúncios…

Por que os “irmãos de porta” de outrora chegaram a um ponto de inimizade total?

A raiz está na lógica inerente ao modelo de negócio de código fechado: sua sobrevivência depende da construção de uma barreira de proteção, e essa barreira só é possível bloqueando a difusão tecnológica e monopolizando as capacidades mais avançadas. Além disso, rotas tecnológicas incompatíveis e narrativas de produto opostas naturalmente criam um equilíbrio de Nash: quem “ceder” primeiro na trégua terá sua narrativa de marca desmoronada, mergulhando cada vez mais no lamaçal do conflito interno.

02 “Evolução colaborativa” no campo de código aberto

Voltando ao cenário doméstico, o roteiro é completamente diferente.

Há pouco mais de um ano, o surgimento do DeepSeek-R1 freou a corrida desenfreada dos grandes modelos, colocando um freio na “onda” dos “seis pequenos tigres” do mercado. Ao contrário do Vale, que costuma devorar tudo, o DeepSeek atuou como um “carpa” que ativou todo o ecossistema de grandes modelos na China, incentivando a adoção do código aberto.

Um exemplo direto é a trajetória de crescimento do “Lado Sombrio da Lua”, que começou em 2023. Essas startups têm equipes pequenas, mas altamente densas em talento, e são firmes seguidoras da Lei de Escalabilidade.

Em julho de 2025, o “Lado Sombrio da Lua” lançou o primeiro modelo de código aberto com um trilhão de parâmetros, o Kimi K2, e no relatório técnico admitiu usar a arquitetura MLA do DeepSeek. Para grandes modelos, o maior pesadelo ao lidar com textos ultra longos é a parede de memória, e a inovação do MLA está em reduzir a cache KV em mais de 93%, uma mudança revolucionária.

Com o “padrão da indústria” estabelecido pelo DeepSeek, equipes de grandes modelos na China podem evitar reinventar a roda, reduzindo rapidamente os custos de inferência.

Mas a história não termina aí.

Ao revisar a documentação técnica do DeepSeek V4, há uma descrição detalhada da arquitetura, incluindo uma atualização importante: trocar o otimizador de maioria dos módulos de AdamW para Muon, alcançando uma convergência mais rápida e maior estabilidade no treinamento.

Na documentação do Kimi K2.6, também há menção ao otimizador Muon, que, sob a mesma carga de treinamento, dobrou a eficiência.

Ambos os modelos mencionam o otimizador Muon, que foi proposto por Keller Jordan em um blog no final de 2024. O time do “Lado Sombrio da Lua”, que também enfrentou problemas com AdamW, fez melhorias críticas na engenharia do Muon no início de 2025, adicionando recursos como Decaimento de Peso e Controle RMS, batizando-o de MuonClip.

O “Lado Sombrio da Lua” foi o primeiro a testar a estabilidade do otimizador Muon no Kimi K2, atingindo uma fase de pré-treinamento sem “picos de perda”. O DeepSeek, ao treinar seu grande modelo V4, também utilizou o comprovado otimizador Muon.

É importante destacar que a “evolução colaborativa” de grandes modelos de código aberto não está levando à homogeneização, mas sim a uma trajetória de “harmonia na diversidade”.

Por exemplo, o DeepSeek-V4 foca na melhoria das capacidades centrais do modelo base, elevando o teto de desempenho dos grandes modelos de código aberto globalmente, fornecendo uma base que rivaliza com os modelos fechados de ponta; enquanto o Kimi K2.6 se dedica à implementação de agentes, resolvendo os principais desafios de execução autônoma de longo prazo, abrindo o caminho para a entrada de grandes modelos em cenários de produção reais.

Todo esse processo ocorre sem negociações comerciais prolongadas ou disputas de patentes. No ecossistema de código aberto, a inovação tecnológica flui livremente, e quem fizer bem feito, será utilizado por todos.

Ao extrair nutrientes do ecossistema de código aberto e complementar suas rotas tecnológicas, os fabricantes chineses de grandes modelos demonstraram ao mundo uma alternativa além do Vale do Silício.

03 EUA “constroem muros”, China “constrói estradas”

Enquanto admiram a evolução colaborativa do código aberto, é preciso encarar uma dura realidade comercial.

Atualmente, a receita anual do OpenAI e da Anthropic ultrapassa 10 bilhões de dólares, enquanto os principais fabricantes domésticos de grandes modelos ainda estão na faixa de 1 milhão de dólares por ano.

O valor de mercado do OpenAI na bolsa secundária é de cerca de 880 bilhões de dólares, a Anthropic atingiu aproximadamente 1 trilhão de dólares, enquanto as novas rodadas de financiamento do Kimi e DeepSeek avaliam suas empresas em 18 bilhões e 20 bilhões de dólares, respectivamente.

Alguns afirmam que o valor de mercado dos fabricantes chineses está subestimado, outros dizem: “Transformar tecnologia em dinheiro de verdade é o grande teste de vida ou morte para as empresas chinesas.” Assim, a discussão sobre “custo-benefício” do código aberto está em alta.

Para entender o desfecho, podemos observar as fases de competição dos grandes modelos:

A primeira fase é “pelo número de parâmetros e benchmarks”. Até o final de abril de 2026, essa fase praticamente terminou, pois as pontuações nas listas já não diferenciam substancialmente as empresas.

A segunda fase é “pelo eficiência de treinamento, custo de inferência e inovação na arquitetura”. Essa é a fase atual, resultado inevitável da pressão do custo computacional.

A terceira fase será “pelo sistema de agentes, ecossistema e desenvolvedores”. Quando os tokens passarem de fluxo gratuito para combustível de tarefas, a prosperidade do ecossistema determinará a sobrevivência.

Qual é a posição do cenário doméstico de grandes modelos de código aberto? Encontramos dois conjuntos de dados comparativos:

Um é o custo de treinamento.

Em agosto de 2025, o GPT-5 custou mais de 500 milhões de dólares para treinar; o Kimi K2 Thinking, na mesma época, custou cerca de 4,6 milhões de dólares; o DeepSeek não divulgou o custo de treinamento da série V4, mas o V3 custou apenas 5,58 milhões de dólares… Os fabricantes chineses usaram menos de uma fração do recurso da OpenAI, treinando modelos de nível semelhante.

Outro é o volume de chamadas.

Após 2026, a plataforma de agregação de múltiplos modelos OpenRouter mostra que, impulsionada pelos produtos Agent representados pelo OpenClaw, a quantidade de tokens consumidos globalmente cresceu exponencialmente, e a “Dream Team” de código aberto na China, com sua reputação de “fácil e barato”, já supera os EUA em chamadas por várias semanas consecutivas.

A explicação é simples.

O ecossistema de código aberto na China já percorreu o ciclo de “feedback positivo”: uma empresa abre sua tecnologia de base, outra adota e faz otimizações, e essa experiência é devolvida ao ecossistema. Se a evolução dos modelos fechados é uma expansão linear baseada em enorme capacidade computacional, a rota de código aberto promete uma difusão exponencial impulsionada por colisões de inovação tecnológica.

Segundo relatório do Morgan Stanley, de 2025 a 2030, o consumo de tokens de inferência de IA na China terá uma taxa de crescimento anual composta de aproximadamente 330%, passando de 10 trilhões de tokens em 2025 para 3,9 quatrilhões de tokens em 2030, um crescimento de 370 vezes.

Ou seja, 2026 ainda está no início da explosão de IA, e nos próximos cinco anos há potencial para crescimento de várias centenas de vezes, longe de uma conclusão definitiva.

A confiança na oportunidade de longo prazo é justamente o que leva os gigantes do Vale a construir muros, enquanto os fabricantes chineses de grandes modelos escolhem fortalecer a estrada por meio de colaboração contínua rumo à AGI.

04 Conclusão

Quem sairá vencedor nesta onda de IA? A resposta não depende apenas dos modelos, mas também do controle autônomo do poder computacional. Se compararmos o modelo a uma “bomba atômica”, então o poder de computação nacional, livre de bloqueios externos, é como um “foguete” levando a bomba ao céu.

Felizmente, a fusão de modelos nacionais com poder de computação doméstico está cada vez mais próxima: a documentação técnica do DeepSeek V4 inclui a Ascend NPU e a GPU da Nvidia na lista de hardware validado; a mais recente pesquisa do “Lado Sombrio da Lua” mostra que a inferência de grandes modelos foi executada em chips diferentes, abrindo caminho para a participação em larga escala de chips nacionais na inferência de modelos.

No início de 2025, o DeepSeek R1 abriu uma oportunidade para os grandes modelos nacionais entrarem na disputa; até 2026, o ecossistema de grandes modelos de código aberto na China continua a criar e definir novas regras de hardware por meio de colaboração contínua.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar