Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A Próxima Era da Aceleração de GPU: Como a Vera Rubin da NVIDIA Redefine o Agendamento de GPU Acelerado por Hardware
Na CES 2026, Jensen Huang apresentou uma keynote transformadora que reforça a visão de apostar tudo na NVIDIA: a transição de uma era focada exclusivamente no treino de IA para uma dominada por inferência eficiente em larga escala e inteligência incorporada. Ao longo de 90 minutos, o CEO da NVIDIA revelou oito anúncios principais, cada um reforçando uma estratégia singular — construir sistemas altamente integrados onde a programação de GPU acelerada por hardware e o computing em rede se tornam inseparáveis. A mensagem foi clara: o futuro não pertence a aceleradores isolados, mas a sistemas projetados para throughput rentável.
A Plataforma Vera Rubin: Uma Abordagem de Seis Chips para o Design Acelerado de Sistemas
Vera Rubin representa uma reformulação fundamental da arquitetura de data centers. Em vez de simplesmente acrescentar aceleradores a uma infraestrutura genérica, a NVIDIA co-projetou seis chips complementares — Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU e Spectrum-X CPO — cada um otimizado para funcionar como um ecossistema coeso.
A Vera CPU, construída com núcleos Olympus customizados, gerencia a movimentação de dados e o processamento de agentes com conectividade NVLink-CPU de 1.8TB/s, gerindo efetivamente a coordenação que a programação de GPU exige. A Rubin GPU introduz o motor Transformer e a capacidade de inferência NVFP4 atingindo 50 PFLOPS — 5x o desempenho do Blackwell — enquanto suporta memória HBM4 com banda de 22TB/s, 2.8x a geração anterior. Essas especificações importam não isoladamente, mas porque resolvem um problema crítico: à medida que os modelos crescem e os tokens de inferência proliferam, abordagens tradicionais de programação de GPU tornam-se gargalos na largura de banda de memória e nos custos de movimentação de dados.
Integrando todos os componentes em um sistema de rack único, o Vera Rubin NVL72 entrega 3.6 EFLOPS de desempenho em inferência com 2 trilhões de transistores. Mais importante, a arquitetura do sistema permite a programação de GPU acelerada por hardware em escala sem precedentes. O NVLink 6 Switch alcança 3.6TB/s de largura de banda total de interconexão por GPU (2x geração anterior), com computação na rede de 14.4 TFLOPS FP8. Isso não é apenas mais largura de banda — é largura de banda projetada para eliminar gargalos de programação inerentes às cargas de trabalho de inferência distribuída.
O sistema usa resfriamento líquido 100% e apresenta uma bandeja de computação modular e sem ventoinha, que reduz o tempo de montagem de duas horas para cinco minutos. Manutenção sem tempo de inatividade através da bandeja do NVLink Switch e do motor RAS de segunda geração garante que os clusters de inferência atinjam a confiabilidade de uptime exigida pelos data centers. Mais de 80 parceiros MGX já estão preparados para a implantação do Vera Rubin.
Três Inovações que Apontam para a Fronteira da Eficiência de Inferência
Além da base de hardware, a NVIDIA lançou três produtos especificamente projetados para resolver gargalos de inferência: Spectrum-X Ethernet CPO, uma Plataforma de Armazenamento de Memória de Contexto de Inferência, e o DGX SuperPOD construído com Vera Rubin.
Spectrum-X Ethernet Co-Packaged Optics aplica um design de dois chips usando tecnologia SerDes de 200Gbps, entregando 102.4Tb/s por ASIC. Em comparação com redes comutadas tradicionais, a arquitetura CPO alcança eficiência energética 5x superior, confiabilidade 10x melhor e tempo de atividade de aplicação 5x maior. Isso se traduz diretamente em processar mais tokens de inferência diariamente, enquanto reduz o TCO do data center — uma vantagem competitiva crítica na corrida para commoditizar a inferência.
A Plataforma de Armazenamento de Memória de Contexto de Inferência redefine como os sistemas lidam com o armazenamento de contexto para cargas de trabalho de IA de sequência longa. À medida que sistemas de IA Agentic lidam com conversas multi-turno, pipelines RAG e raciocínio complexo de múltiplas etapas, as janelas de contexto agora se estendem a milhões de tokens. Em vez de recalcular caches de chaves e valores a cada passo de inferência — desperdiçando capacidade de GPU e introduzindo latência — a plataforma trata o contexto como um cidadão de primeira classe, armazenando e reutilizando-o através de uma camada de armazenamento acelerada BlueField-4 conectada via Spectrum-X. Ao desacoplar o armazenamento de contexto da memória de GPU, mantendo uma ligação estreita via NVLink, a plataforma oferece 5x de desempenho de inferência e 5x de eficiência energética para cargas de trabalho com forte uso de contexto. Isso representa uma mudança arquitetural fundamental: o gargalo de inferência migrou de computação bruta para gestão de contexto.
O DGX SuperPOD com Vera Rubin serve como o modelo para fábricas de IA turnkey. Combinando oito sistemas Vera Rubin NVL72 com escalabilidade vertical via NVLink 6 e escalabilidade horizontal via Spectrum-X Ethernet, o SuperPOD demonstra como o design colaborativo de chips se traduz em reduções de custo a nível de sistema. Em comparação com a geração Blackwell anterior, treinar modelos MoE grandes requer apenas 1/4 do número de GPUs, e os custos de inferência por token caem para 1/10. Gerenciado pelo software NVIDIA Mission Control, o SuperPOD opera como um motor de inferência unificado onde a programação de GPU, orquestração de rede e coordenação de armazenamento ocorrem de forma transparente.
O Amplificador de Código Aberto: De Modelos a Agentes Integrados
A expansão agressiva da NVIDIA em contribuições de código aberto — 650 modelos e 250 datasets lançados em 2025 sozinhos — reflete uma estratégia sofisticada: saturar os desenvolvedores com ferramentas poderosas e gratuitas, enquanto torna o hardware subjacente cada vez mais indispensável.
A empresa integrou modelos abertos e ferramentas em “Blueprints”, uma estrutura SaaS que permite sistemas multi-modelo e multi-nuvem com agentes. Esses sistemas roteiam automaticamente consultas para modelos privados locais ou modelos de fronteira na nuvem, com base na tarefa, chamam APIs externas para uso de ferramentas e fundem entradas multimodais (texto, voz, imagens, dados de sensores). Ao incorporar essa arquitetura nos fluxos de trabalho dos desenvolvedores, a NVIDIA garante que organizações conscientes de custos, que utilizam modelos abertos, dependam, em última análise, da infraestrutura de inferência Vera Rubin para implantações em produção.
A família Nemotron expandida agora inclui modelos RAG Agentic, variantes focadas em segurança e modelos de fala — cada um abordando gargalos na emergente pilha de IA Agentic. Desenvolvedores podem ajustar esses modelos, gerar dados sintéticos via Cosmos e construir aplicações que, há dois anos, seriam impossíveis de desenvolver.
IA Física: Onde a Condução Autônoma Encontra o Raciocínio do Mundo Real
A NVIDIA posiciona a IA física — inteligência que entende o mundo real, raciocina sobre incertezas e executa ações complexas — como a próxima fronteira de vários trilhões de dólares. Veículos autônomos surgem como principal campo de prova.
Alpha-Mayo, o conjunto de modelos de código aberto da NVIDIA para condução autônoma de Nível 4, encarna essa visão. Com 10 bilhões de parâmetros, Alpha-Mayo permite decisões baseadas em raciocínio, dividindo cenários complexos de condução em etapas e escolhendo a ação mais segura. Em vez de sistemas reativos de regras, o modelo entende a permanência de objetos, prevê o comportamento de veículos e lida com casos extremos nunca antes vistos — por exemplo, uma falha no semáforo em uma interseção movimentada.
O Mercedes-Benz CLA, agora em produção com integração de Alpha-Mayo, atingiu a classificação de segurança mais alta da NCAP. A plataforma NVIDIA DRIVE, rodando em hardware de produção, suporta condução mãos-livres em rodovias e autonomia urbana de ponta a ponta — capacidades que demonstram a prontidão da IA física para implantação em escala. Alpha-Sim, uma estrutura de avaliação de código aberto, e a geração de dados sintéticos via Cosmos permitem que desenvolvedores em todo o mundo acelerem o desenvolvimento de veículos autônomos.
Além do setor automotivo, a NVIDIA anunciou parcerias com Boston Dynamics, Franka Robotics, LG Electronics e outros, baseadas nas plataformas NVIDIA Isaac e GR00T. Uma colaboração com a Siemens integra tecnologias NVIDIA em ferramentas de EDA, CAE e gêmeos digitais, incorporando IA física em design, simulação, manufatura e operações.
O Fosso se Aprofunda: Engenharia de Sistemas como Vantagem Competitiva
À medida que o mercado de infraestrutura de IA evolui de um modelo centrado em treino para uma economia centrada em inferência, a competição por plataformas passou de métricas de um único eixo (FLOPS de GPU) para uma abordagem de engenharia de sistemas abrangente, cobrindo chips, racks, redes e orquestração de software.
A estratégia da NVIDIA atua em duas frentes simultaneamente. Na frente de código aberto, a empresa contribui agressivamente com modelos, ferramentas e datasets, democratizando o desenvolvimento de IA e expandindo o mercado endereçável para inferência. Na frente proprietária, o ecossistema Vera Rubin altamente integrado — com chips co-projetados, largura de banda NVLink, rede Spectrum-X, camadas de armazenamento de contexto e software Mission Control — torna-se cada vez mais difícil de replicar.
A dinâmica de ciclo fechado é formidável: ao expandir o ecossistema de código aberto, a NVIDIA impulsiona uma adoção mais ampla de IA e o consumo de tokens; ao fornecer infraestrutura de inferência de custo eficiente, captura as cargas de trabalho em escala que emergem; ao inovar continuamente na arquitetura de hardware e na capacidade de programação de GPU, garante que plataformas alternativas tenham dificuldades em igualar desempenho por watt e custo por token. Isso cria uma vantagem auto-reforçada que transcende qualquer ciclo de produto único.
O anúncio Vera Rubin não representa apenas a próxima geração de hardware de inferência, mas a validação de que a aposta da NVIDIA em sistemas integrados — onde aceleração de hardware, orquestração em rede e otimização de software convergem — se tornou doutrina da indústria. Desde hyperscalers implantando SuperPODs até empresas construindo agentes de IA privados em clusters DGX, o cenário de infraestrutura está se consolidando em torno da visão da NVIDIA.
Para desenvolvedores e operadores, a implicação é simples: a era de acrescentar aceleradores a plataformas genéricas terminou definitivamente. O futuro de inferência eficiente e escalável roda em sistemas acelerados por hardware, projetados especificamente para essa tarefa.