ANTHROPIC

Preço Anthropic

Fechada
ANTHROPIC
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-26 05:38 (UTC+8)

Em 2026-04-26 05:38, o Anthropic (ANTHROPIC) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, ANTHROPIC esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de ANTHROPIC

Índice P/L0,00
Rendimento de Dividendos (TTM)0,00%
Ações em circulação0,00

Saiba mais sobre Anthropic (ANTHROPIC)

Artigos Gate Learn

As 72 horas da crise de identidade da Anthropic

Em apenas setenta e duas horas, a Anthropic viu-se confrontada com um ultimato do Pentágono, acusações públicas de Elon Musk e a retirada dos seus próprios compromissos de segurança. Da recusa em criar armas militares autónomas à revisão do RSP 3.0 e ao abandono da linha vermelha "pause training", esta empresa—reconhecida como líder em "IA segura"—enfrenta agora um crescente desfasamento entre a sua imagem e a realidade operacional. Este artigo explora as dinâmicas políticas, as pressões de valorização e o desmoronar do prémio narrativo de segurança que alimentam esta crise de identidade.

2026-03-05

Anthropic "Corta" Windsurf, Programação de IA Torna-se "Guerra por Procuração" Entre Gigantes da IA

A aquisição da plataforma de programação de IA Windsurf pela OpenAI causou alvoroço na indústria, enquanto a cessação do fornecimento do modelo Claude pela Anthropic à Windsurf intensificou ainda mais a concorrência no mercado.

2025-06-11

Fuga do código-fonte do Claude Code: Profunda análise da indústria—A visão da Anthropic ultrapassa largamente o conceito de um mero assistente de programação IA

O incidente de fuga do código-fonte do Claude Code evidencia algo mais do que um erro técnico isolado—revela antecipadamente a estratégia de produto da Anthropic, assente em operações em segundo plano, execução automatizada, colaboração multiagente e automatização de permissões. Este artigo analisa, numa ótica profissional, os caminhos prováveis que a Anthropic poderá trilhar com o Claude Code.

2026-04-02

Perguntas Frequentes sobre Anthropic (ANTHROPIC)

Qual é o preço das ações de Anthropic (ANTHROPIC) hoje?

x
Anthropic (ANTHROPIC) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para Anthropic (ANTHROPIC)?

x

Qual é o índice preço-lucro (P/L) de Anthropic (ANTHROPIC)? O que indica este valor?

x

Qual é a capitalização de mercado de Anthropic (ANTHROPIC)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Anthropic (ANTHROPIC)?

x

Deve comprar ou vender Anthropic (ANTHROPIC) agora?

x

Que fatores podem influenciar o preço das ações da Anthropic (ANTHROPIC)?

x

Como comprar ações da Anthropic (ANTHROPIC)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias Anthropic (ANTHROPIC)

2026-04-25 06:12

Os IPOs da SpaceX, OpenAI e Anthropic Poderão Atrair Mais de $240 Billion, Potencialmente Impactando a Liquidez do Mercado Cripto

Mensagem do Gate News, 25 de abril — De acordo com relatórios de mercado, a SpaceX deverá abrir o capital em junho com uma meta de angariação de fundos superior ao recorde de $29 billion de IPO da Saudi Aramco, enquanto a OpenAI e a Anthropic planeiam listar na segunda metade de 2026. As três empresas estão previstas a, no total, atrair mais de $240 billion em capital. O IPO da SpaceX marcaria a maior oferta pública inicial (IPO) da história, se exceder o atual recorde da Saudi Aramco. Analistas de mercado sugerem que estes mega-IPOs podem tornar-se um ponto de viragem significativo para a liquidez do mercado cripto, uma vez que as três empresas deverão captar capital das mesmas carteiras de investimento que os activos digitais. Desde que o Bitcoin, o Ethereum e outras grandes criptomoedas se tornaram cada vez mais correlacionados com o índice (U.S. tech-heavy de ações) da Nasdaq e com a apetência mais ampla do mercado acionista dos EUA para o risco nos últimos anos, uma grande transferência de capital para estes IPOs de tecnologia poderia, potencialmente, reduzir a pressão de compra sobre BTC, ETH e altcoins.

2026-04-24 15:53

Alphabet vai investir até $40 mil milhões na Anthropic, reforçando a concorrência em IA

Mensagem da Gate News, 24 de abril — A Alphabet, empresa-mãe do Google, planeia investir até $40 mil milhões no developer de IA Anthropic, num montante de $10 mil milhões adiantados e $30 mil milhões em financiamento adicional condicionado à obtenção de certos marcos de desempenho. Este investimento segue a participação anterior de 14% da Alphabet na Anthropic e irá apoiar a empresa no aumento da capacidade de computação usando os chips TPU do Google. A taxa anual de receitas da Anthropic já ultrapassa $30 mil milhões, face a $9 mil milhões no final de 2025. No mercado secundário, a avaliação implícita da Anthropic disparou para entre $800 mil milhões e $1 triliões. Em desenvolvimentos de produto, a Anthropic lançou o Claude Opus 4.7 a 16 de abril, melhorando as capacidades de engenharia de software e de visão sem alterações de preços ($5 por milhão de tokens de entrada, $25 por milhão de tokens de saída). A 17 de abril, a empresa apresentou o Claude Design, uma ferramenta experimental para criar protótipos e apresentações, disponível para utilizadores do Claude Pro, Max, Team e Enterprise. As ações do Google subiram aproximadamente 1,2% ao meio-dia, enquanto o mercado tecnológico mais amplo subiu 3,77%. O investimento reflete um aumento mais amplo do financiamento em IA durante 2026. Apenas no primeiro trimestre, o capital de risco global atingiu $297 mil milhões a $314 mil milhões, com a IA a representar 80-81% do total de negócios. As principais rondas de financiamento incluíram OpenAI ($122 mil milhões), Anthropic ($30 mil milhões), xAI ($20 mil milhões) e Waymo ($16 mil milhões). Abril manteve o ritmo: a Microsoft comprometeu $10 mil milhões para iniciativas japonesas de IA e cibersegurança e $5,5 mil milhões para o desenvolvimento de IA em Singapura, enquanto a Amazon prometeu $5 mil milhões para a Anthropic. A Cerebras Systems apresentou pedido de IPO com uma avaliação de $35 mil milhões a 17 de abril. As intenções de despesa de capital da Big Tech deverão atingir $635 mil milhões a $665 mil milhões até ao final do ano.

2026-04-24 15:30

O regulador suíço FINMA alerta que a ferramenta de IA Mythos da Anthropic representa risco financeiro

Mensagem do Gate News, 24 de abril — a Autoridade de Supervisão dos Mercados Financeiros da Suíça (FINMA) afirmou que permitir que os bancos adoptem de forma rápida e conveniente a ferramenta de inteligência artificial da Anthropic Mythos representaria riscos sérios para o sistema financeiro do país. Um porta-voz da FINMA alertou que modelos de IA como o Mythos, descontrolados e imediatamente disponíveis, seriam considerados riscos sistémicos. Segundo o regulador, sob tais condições, quase todos os sistemas de software existentes poderiam ser expostos simultaneamente a inúmeras vulnerabilidades zero-day previamente desconhecidas. Essas vulnerabilidades seriam exploradas e armadas imediatamente através de inteligência artificial, disse o porta-voz.

2026-04-24 12:48

A Anthropic reverte as alterações do Claude Code após quebra de qualidade; todas as correções concluídas

Mensagem de Gate News, 24 de abril — A Anthropic reconheceu uma recente quebra na qualidade do Claude Code e confirmou que todos os problemas relacionados foram resolvidos através de rollbacks e correções. Os problemas tiveram origem em três ajustes de produto e de prompts realizados entre o início e meados de abril. Em 4 de março, o esforço de raciocínio predefinido foi reduzido de elevado para médio, o que degradou o desempenho até ser restaurado para elevado/xalto em 7 de abril. Em 26 de março, foi introduzido um bug na lógica clear_thinking_20251015 concebida para otimizar o caching, o que fez com que o sistema perdesse o histórico de raciocínio durante períodos longos de inatividade e levou a perda de memória e repetição; isto foi corrigido na versão 2.1.101 a 10 de abril. Mais recentemente, em 16 de abril, foi adicionado um prompt de sistema para comprimir a saída (limitando respostas a ≤25/100 palavras), o que resultou numa influência negativa de aproximadamente 3% na qualidade do código; esta alteração foi revertida em 20 de abril. A Anthropric afirmou que a camada de raciocínio da API não foi afetada por estes problemas. A empresa também repôs as quotas de utilização de todos os subscritores.

2026-04-23 08:33

A Anthropic Lança /ultrareview para o Claude Code: Revisão de Código em Nuvem com Vários Agentes

Mensagem do Gate News, 23 de abril — A Anthropic introduziu /ultrareview (research preview), uma funcionalidade de revisão de código multi-agente baseada na nuvem para o Claude Code. Os utilizadores podem escrever /ultrareview na CLI para iniciar um conjunto de agentes de revisão numa sandbox remota que trabalham em paralelo para analisar diffs entre a branch atual e a branch predefinida (incluindo alterações não commitadas), ou rever diretamente PRs do GitHub fornecendo um número de PR. Todo o processo não exige recursos locais e normalmente demora de 5 a 10 minutos, com os resultados devolvidos à sessão como notificações. A principal distinção face à ferramenta local /review reside no seu mecanismo de verificação: cada achado é reproduzido e confirmado de forma independente por um agente separado, focando-se em bugs reais em vez de sugestões de estilo de código. A Anthropic posiciona estas duas ferramentas para diferentes fases de desenvolvimento — /review para feedback rápido durante a programação e /ultrareview para uma revisão profunda de alterações críticas (como autenticação ou migração de dados)antes de fazer merge. Quanto ao preço, /ultrareview utiliza faturação de uso adicional e não consome a utilização incluída no plano. Os utilizadores Pro e Max têm 3 utilizações gratuitas cada um antes de 5 de maio (uma única vez, não renovável), após o que cada revisão custa aproximadamente $5 até $20 dependendo da escala das alterações. Os utilizadores Team e Enterprise não têm qualquer franquia gratuita. A funcionalidade requer autenticação da conta do Claude.ai e não está disponível para Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, nem para organizações com retenção de dados zero activada.

Publicações em alta sobre Anthropic (ANTHROPIC)

Flyawei

Flyawei

19 minutos atrás
【Boletim de Notícias】Principais 10 eventos de AI e criptomoedas nas últimas 48 horas: 1. 【Resgate DeFi】Aave lidera a arrecadação de mais de 100.000 ETH (cerca de 232 milhões de dólares) para o incidente rsETH, com KelpDAO e LayerZero participando na execução. 2. 【Vulnerabilidade no Litecoin】O Litecoin revelou uma vulnerabilidade de dia zero que causou ataques DoS às pools de mineração, sendo reparada com reorganização de 13 blocos, e a rede já voltou ao normal. 3. 【Adoção Institucional】Contratos de opções de ETF de Bitcoin da BlackRock IBIT atingiram 27,6 bilhões de dólares em contratos em aberto, ultrapassando pela primeira vez a Deribit, marcando uma aceleração na implementação de derivativos criptográficos regulamentados. 4. 【Hack do Balancer】O atacante do Balancer trocou 21.000 ETH por 617,43 BTC (aproximadamente 487,2 milhões de dólares) nos últimos três dias, mantendo ainda 1.000 ETH que podem continuar a ser vendidos. 5. 【ZetaChain AI】A ZetaChain integrou o mais recente modelo GPT-5.5 da OpenAI em sua camada de IA Anuma, suportando acesso sem costura a múltiplos modelos e memória de privacidade. 6. 【Financiamento da Fere AI】A plataforma de negociação de ativos digitais com IA Fere AI concluiu uma rodada de financiamento de 1,3 milhão de dólares, liderada pela Ethereal Ventures, apoiando negociações em linguagem natural na ETH, SOL e BASE. 7. 【Mythos da Anthropic】A Mythos AI da Anthropic mudou o foco da segurança DeFi para infraestrutura (chaves, pontes), com Coinbase e Aave participando em testes. 8. 【Domínio do USDC】O USDC domina 98% da economia de micropagamentos de agentes de IA, tornando-se a moeda de fato para IA, superando tokens temáticos como FET, TAO e RENDER. 9. 【Pagamentos AI na Base】O desenvolvedor do Coinbase Base afirma que o agente de IA será a próxima onda de pagamentos criptográficos, com o protocolo x402 processando 48 milhões de dólares, 95% na cadeia Base. 10. 【Desbloqueio do Quack AI】O projeto de token de IA Quack AI (Q) desbloqueará aproximadamente 161 milhões de tokens em 2 de maio, avaliados em cerca de 1,71 milhão de dólares. Fonte de dados: Surf AI, ChainCatcher, TechFlow, Coindesk, entre outros.
0
0
0
0
金色财经_

金色财经_

1 Horas atrás
Às três e meia da tarde, o sol na California Avenue já começava a inclinar-se em direção a Stanford. O cachorro na porta do Zombie Café estava deitado sob a cadeira branca ali na entrada. Na mesa, espalhavam-se três cópias impressas: o comunicado de lançamento do Opus 4.7 da Anthropic de 16 de abril, a transcrição palavra por palavra da apresentação do GPT-5.5 de 23 de abril por Greg Brockman, e o relatório técnico do DeepSeek V4, publicado na madrugada, ainda com a tinta fresca. Em oito dias, as três empresas colocaram na mesa todas as suas apostas para o segundo trimestre de 2026. Antes de terminar o café, Alan Walker do Vale do Silício explicou tudo claramente. Sem exagerar nos benchmarks, sem falar qual modelo "parece melhor", sem escrever comunicados de imprensa. Apenas partindo dos princípios fundamentais — tecnologia, chips, preço, público, estratégia, ecossistema — onde cada uma delas realmente se posiciona em 2026, quem está na liderança, quem está na defensiva, quem está sacudindo a mesa. _**01**_ Código aberto vs Código fechado — a verdadeira disputa de rota nesta guerra ----------------------------- Desta vez, DeepSeek sincronizou a abertura dos modelos V4-Pro e V4-Flash, com licença MIT padrão, pesos disponíveis diretamente no Hugging Face, acessíveis a todos para download, ajuste fino e uso comercial. Claude Opus 4.7 e GPT-5.5 são totalmente fechados — apenas uma API, os pesos do modelo você nunca vai tocar na vida. Muita gente pensa que essa é uma disputa de modelos de negócio. Errado. É uma disputa de estruturas de confiança. A barreira de proteção do código fechado chama-se "você só pode vir até aqui" — prende o usuário na porta da minha casa, na fila. A barreira do código aberto chama-se "você não consegue ficar sem o meu ecossistema" — constrói uma infraestrutura de IA para desenvolvedores, empresas e até países inteiros, baseada na minha arquitetura. Um é uma praça de pedágio, o outro é uma rodovia de alta velocidade. DeepSeek consolidou essa estratégia com quatro gerações consecutivas de código aberto: V3, R1, V3.2, V4. Hoje, qualquer empresa no mundo que queira fazer implantação local, rodar grandes modelos em finanças, saúde, governo ou defesa, pensa primeiro na DeepSeek — de olhos fechados. Empresas estatais chinesas, fundos soberanos do Oriente Médio, bancos europeus que não querem entregar seus dados à nuvem americana — esses nunca usarão API fechada, nunca. A aposta da Anthropic e da OpenAI é o oposto: a lacuna de inteligência de ponta sempre existirá, e os clientes mais inteligentes estão dispostos a pagar mais. Porém, essa aposta tem uma janela de tempo. Desde o dia em que o R1 foi lançado até hoje, a diferença de capacidade entre código aberto e fechado encolheu de um ano para três meses. Se esse prazo cair para um mês, a linha do código fechado começará a rachar. _**02**_ Arquitetura do modelo — as três empresas trilham caminhos fundamentalmente diferentes --------------------------- V4-Pro com 1,6T de parâmetros / 49B de ativação; V4-Flash com 284B de parâmetros / 13B de ativação. Contexto de 1 milhão de tokens é padrão de fábrica. A arquitetura central combina atenção híbrida (CSA + HCA intercalados) + Hyper-Conexões Restringidas por Manifold + Otimizador Muon + Treinamento FP4. Em cenário de 1 milhão de tokens, a inferência de um token do V4-Pro usa apenas 27% dos FLOPs do V3.2, e o cache KV apenas 10%. O V4-Flash é ainda mais eficiente — FLOPs caíram para 10%, cache KV para 7%. A essência dessa arquitetura é uma aposta: contexto longo não é uma questão de capacidade, mas de eficiência. A geração V3 reduziu custos de treinamento com MoE, a geração V4 busca reduzir custos de inferência com atenção híbrida. Cada passo corta o que é mais caro. O GPT-5.5 é diferente. A OpenAI afirma claramente — é o primeiro modelo treinado do zero após o GPT-4.5. As versões 5.1, 5.2, 5.3 e 5.4 foram apenas iterações de pós-treinamento sobre a mesma base. O 5.5 reformulou arquitetura, dados de pré-treinamento e objetivos de treinamento orientados por agentes. Pachocki, na apresentação, disse — "o progresso dos modelos nos últimos dois anos foi surpreendentemente lento" — na verdade, quer dizer que a base anterior não consegue mais acompanhar a curva de escalabilidade, é preciso trocar de motor. Claude Opus 4.7 é uma melhoria precisa em relação ao 4.6. A Anthropic tem uma definição clara: melhoria notável, não uma mudança de paradigma. O teste SWE-bench aumentou de 80.8 para 87.6, a resolução visual de 1568px para 2576px, a taxa de throughput geral é 3,3 vezes maior, trocaram o tokenizer — textos iguais usam de 1 a 1,35 vezes mais tokens. Mythos Preview é seu verdadeiro próximo passo, um monstro de próxima geração, mas ainda guardado a sete chaves, disponível apenas para 12 parceiros, e o público civil terá que esperar. _**03**_ Chips de base — a notícia mais subestimada de hoje --------------------------- As manchetes da mídia internacional focam nos benchmarks do V4. Errado. A verdadeira mudança de jogo hoje é que parte do treinamento do V4 foi realizado em chips chineses Huawei Ascend. No mesmo dia, a Huawei anunciou suporte completo para toda a linha Ascend SuperPoD, compatível com V4-Pro e V4-Flash. Cambricon também anunciou compatibilidade. As ações da SMIC na bolsa de Hong Kong saltaram 10% naquele dia. Lendo essas três notícias juntas, a verdadeira notícia é: a primeira vez na história da IA chinesa que toda a pilha de treinamento e inferência roda em hardware nacional, sem uma única GPU Nvidia na cadeia crítica. Esse feito é maior do que todos os benchmarks somados. Nos últimos três anos, a maior alavanca dos EUA contra a China foi a restrição à exportação de GPUs avançadas. A lógica é simples: você não consegue treinar o melhor modelo, porque não consegue comprar H100 ou B200. O lançamento do V4 cortou pela metade essa alavanca. Os principais modelos de código aberto podem ser treinados e implantados em hardware que não seja Nvidia. Se essa tendência for amplamente validada pelo mercado, as sanções na área de IA perdem sentido. Claude e GPT-5.5 rodam em stacks de Nvidia H100/H200/B200 + Google TPU + Trainium2 da Anthropic. Não há outra alternativa, nem outro fornecedor. Essa é uma barreira, um ponto único de falha: se a Nvidia aumentar preços ou não conseguir atender à demanda, essas duas empresas sofrerão. A DeepSeek agora tem uma cadeia de suprimentos independente — uma carta na manga. _**04**_ Estrutura de custos de treinamento — como Muon, FP4 e 32T tokens explicam o preço de hoje --------------------------------------------- O relatório técnico do V4 explica claramente: usa o otimizador Muon (mais rápido na convergência, treinamento mais estável), precisão FP4 (que reduz pela metade o uso de memória), pós-treinamento em duas fases (especialistas de diferentes áreas fazem SFT + RL independentes, depois usam destilação por política para unificar o modelo), e um corpus de 32 trilhões de tokens. Essas não são apenas estratégias, são as máquinas que realmente reduzem o custo de treinamento. Resultado: o preço da API do V4-Pro pode ficar abaixo do V3.2, e o do V4-Flash já está na faixa mais baixa de modelos open source. A estratégia do GPT-5.5 é aumentar os preços. Cada milhão de tokens de entrada custa 5 dólares, de saída 30 dólares — o dobro do GPT-5.4. A justificativa oficial é que a eficiência de tokens aumentou 40%, e o custo total só aumentou 20%. Uma bela narrativa. Mas, na prática, ao rodar prompts reais de produção, fica claro: workflows de prompts longos e saídas curtas dobram a conta. A OpenAI aposta que a escassez de inteligência de ponta ainda sustentará esse ciclo, por isso pode cobrar o dobro. Claude Opus 4.7 faz o contrário: aumenta os preços de forma dissimulada. O preço permanece o mesmo — 5/25 dólares, igual ao Opus 4.6. Mas a própria documentação da Anthropic diz que o novo tokenizer usa até 1,35 vezes mais tokens para o mesmo texto. Ou seja, o preço não mudou, mas a conta pode subir até 35%. Uma estratégia de aumento de preço inteligente, mas equipes de engenharia com alto volume logo perceberão na demonstração mensal. A DeepSeek faz o oposto — reduz preços. O V3.2 já é barato, o V4-Pro fica ainda mais. E, quando a Huawei lançar o Ascend 950 em produção, a tendência é de mais queda. Essa é a tática tradicional das empresas chinesas de internet: usar escala e eficiência para esmagar os preços dos concorrentes, e depois consolidar o ecossistema para reter usuários. _**05**_ Precificação de API — quanto se consegue comprar com um dólar de inteligência ------------------------- Vamos abrir a tabela de preços. A avaliação de terceiros, da Artificial Analysis, fez uma comparação: na mesma pontuação do Índice de Inteligência, GPT-5.5 (médio) ≈ Claude Opus 4.7 (máximo). O primeiro faz todos os testes por cerca de $1.200, o segundo por cerca de $4.800. O V4-Pro, na mesma escala de inteligência, custa entre um terço e um décimo do valor dos dois. Isso não é "mais barato". É uma redução de uma ordem de grandeza no custo unitário de inteligência de ponta. Para uma empresa que gasta um milhão de dólares por mês em tokens, o que isso significa? Antes, com o mesmo orçamento, rodava 10 agentes. Agora, pode rodar 80. Antes, experimentos caros demais, agora a preços acessíveis. Se essa vantagem for confirmada por três ou quatro grandes players do mercado (por exemplo, uma que reduziu 70% do custo de um agente de atendimento trocando Opus por V4-Pro, sem perder qualidade), os demais seguirão. É um efeito reflexo — quanto mais empresas migram, menor fica a barreira psicológica para as próximas. A OpenAI e a Anthropic só podem reagir de duas formas: ou aumentam ainda mais a lacuna entre código fechado de ponta (lançar rapidamente o Mythos), ou elevam os custos de transição em relação a clientes, regulamentos e confiabilidade. A primeira leva tempo e dinheiro, a segunda exige paciência dos clientes. _**06**_ Economia real de um contexto de um milhão de tokens -------------------- As três empresas adotaram o contexto de 1 milhão de tokens. Parece uma corrida igualitária. Porém — fazer é uma coisa, fazer barato é outra. O V4-Pro obteve 83,5 pontos no benchmark de recuperação de textos longos MRCR, superando o Gemini-3.1-Pro com 76,3, mas ficando atrás do Claude Opus 4.6 com 92,9. No CorpusQA, com 1 milhão de tokens, atingiu 62%, contra 53,8% do Gemini 3.1 Pro. A precisão na recuperação de informações é de 94% em 128K, 82% em 512K e 66% em 1 milhão. Números absolutos não são os melhores, mas é o melhor entre os modelos open source, e o primeiro a fazer do 1 milhão de tokens o padrão. Claude Opus 4.7 não cobra mais pelo contexto de 1 milhão — é uma habilidade forte da Anthropic. GPT-5.5 também. Mas o problema é: os custos de inferência por unidade variam em uma ordem de dez, e essa diferença se amplia na escala de contexto longo. Fazendo uma conta rápida: um documento jurídico de 500 mil tokens analisado pelo modelo custa cerca de $2,50 só de entrada, mais $1 a $2 de saída — aproximadamente o mesmo que o GPT-5.5. O V4-Pro fica em torno de $1. Se esse workflow rodar 10 mil vezes por dia, o custo anual pode chegar a milhões ou mais de dez milhões de dólares. Para uma empresa de médio porte, o maior gargalo na análise de agentes com contexto longo é o custo de inferência — o V4-Pro elimina esse gargalo. _**07**_ Capacidade de codificação e agentes — as três empresas defendem suas áreas ----------------------------- _Abra o benchmark, essa disputa fica bem clara._ _E esses dados mostram não quem é mais forte, mas que_ _as três empresas apostam em diferentes formas de agentes._ _A Anthropic foca em "resolver problemas reais dentro de códigos existentes". Cursor, Devin, Factory, Ramp — clientes usam Opus para tarefas que não são brincadeiras como "escrever um app de tarefas", mas "consertar uma condição de corrida enterrada há três semanas em um código de 2 milhões de linhas". Depois que a Nvidia implantou Codex para 10 mil funcionários, o ciclo de debug caiu de dias para horas — esse número a Anthropic também consegue mostrar. Opus 4.7 consegue alcançar 64,3% no SWE-Bench Pro — realmente testado na linha de produção._ _A OpenAI foca em "controle de toda a máquina por agentes". Terminal-Bench 2.0, OSWorld, Codex rodando shell — tudo aponta para um futuro: IA não só escreve código, ela abre o terminal, digita comandos e opera seu Mac. A frase de Brockman na apresentação, "computação agentic em escala", não é um slogan vazio — é o próximo grande objetivo da OpenAI para a próxima década._ _A DeepSeek aposta em "ativos inteligentes públicos de desenvolvedores open source". Pode não vencer o SWE-Bench Pro, mas elevou o teto do open source a uma pontuação de 3206 no Codeforces. Isso significa que qualquer startup pode rodar um modelo de código quase de nível de competição, sem pagar nada à Anthropic ou à OpenAI._ _**08**_ Público-alvo — as três empresas miram em carteiras completamente diferentes ------------------------------ _A lista de clientes da Anthropic revela sua direção: PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block — todos fintechs e SaaS corporativo. Essas empresas têm duas características comuns: muito dinheiro, zero tolerância a erros. Opus 4.7, com preço de 5/25 dólares, auditorias de segurança, narrativa de conformidade, implantação multi-nuvem com Bedrock/Vertex AI/Foundry — tudo voltado a clientes que fecham contratos de seis meses a três anos, pagando milhões por ano. A avaliação da Anthropic na Forge Global ultrapassa 1 trilhão de dólares, maior que os 880 bilhões da OpenAI — o capital investe nessa história de "alta densidade de clientes corporativos"._ _A base da OpenAI é uma combinação de consumidores + desenvolvedores + empresas. ChatGPT com quase 1 bilhão de usuários semanais é sua verdadeira barreira. GPT-5.5, com versões Plus, Pro, Business e Enterprise, tem preços dobrados, mas o fluxo de usuários finais cobre essa diferença. O grupo de desenvolvedores do Codex cresceu de dezenas de milhares para milhões nos últimos seis meses, com empresas como Nvidia, Stripe e Shopify implantando em larga escala. A estratégia é de escala — cada unidade de custo é diluída por um denominador gigante._ _A DeepSeek mira em um público totalmente diferente. Empresas estatais chinesas, bancos, hospitais, órgãos governamentais; fundos soberanos do Oriente Médio que não querem entregar dados à nuvem americana; farmacêuticas europeias com forte conformidade GDPR; governos de países em desenvolvimento na Ásia e América Latina que querem desenvolver IA soberana. E também um grupo de desenvolvedores hardcore e startups de Silicon Valley que só querem rodar seus modelos sem pagar API. Essa soma não chega a 1 bilhão de usuários, mas representa uma escala diferente — de geopolítica e soberania._ _Três carteiras completamente distintas, três estratégias de vendas diferentes._ _**09**_ Segurança e postura de defesa cibernética — as três empresas têm atitudes diametralmente opostas quanto ao uso de modelos como armas ------------------------------ _Antropic lançou o Project Glasswing no começo de abril. Opus 4.7 foi o primeiro modelo de produção a incorporar "detecção automática e rejeição de solicitações de alta risco cibernético". No relatório técnico, eles explicam claramente — durante o treinamento, reduziram propositalmente a capacidade de ataque cibernético. CyberGym pontuou 73,1, quase igual ao Opus 4.6 com 73,8 — é uma questão de política, não de capacidade. Mythos Preview atingiu 83,1 no mesmo benchmark, mas só para 12 parceiros, e essa lista é confidencial — vazou recentemente (um grupo no Discord adivinhou a URL), e a Anthropic publicou um relatório de incidentes._ _A OpenAI segue outro caminho. O sistema do GPT-5.5 afirma: o risco cibernético no nível "High" do Preparedness Framework ainda não é Critical. A estratégia deles não é reduzir a capacidade do modelo, mas implementar classificadores mais rigorosos, autenticação de identidade e um programa de acesso permissivo a cibersegurança — se você quer usar capacidades ofensivas, primeiro precisa verificar sua identidade. Mia Glaese, na apresentação, falou em "lançamento com verificação de identidade", uma forma de dizer: — "a capacidade eu dou, a responsabilidade é sua"._ _O relatório do DeepSeek V4 não aborda esse tema. Na comunidade open source, a postura é: "o código é aberto, você usa, você responde". Para reguladores, é um pesadelo; para desenvolvedores independentes, é um paraíso. Mas o risco real é: qualquer um pode rodar na sua GPU um modelo quase tão capaz quanto o Opus 4.7, sem qualquer camada de interceptação. Como a regulação vai evoluir, esse é o grande ponto de atenção entre o final de 2026 e 2027._ _**10**_ Estratégia de mercado — três apostas diferentes, mas só uma será a maior ------------------------------ DeepSeek quer ser o Linux da IA. Usando código aberto, custos extremos e chips nacionais, democratizar a infraestrutura de IA globalmente. Quando cada país, cada empresa, cada desenvolvedor rodar na sua arquitetura — você não lucra com licenças, mas com o valor do ecossistema. Hoje, a Hugging Face tem milhões de downloads, amanhã cada fabricante de chips nacional terá SDKs compatíveis, e na semana seguinte, cada novo desenvolvedor começará com "from deepseek import...". Essa estratégia foi usada por Linus Torvalds há vinte anos, e hoje é adotada por Liang Wenfeng. A diferença é que LLMs custam 10 mil vezes mais que sistemas operacionais, há mil vezes mais dinheiro de especulação, e o valor geopolítico é cem vezes maior. A Anthropic aposta em ser o motor de IA das maiores empresas do mundo. Seus clientes não são os bilhões de consumidores, mas as primeiras 10 mil empresas globais, com orçamentos de TI e conformidade. Opus 4.7, com seu foco "estreito mas profundo", Mythos Preview, distribuição multi-nuvem com Bedrock/Vertex/Foundry, e uma avaliação de 1 trilhão de dólares na Forge — tudo isso conta uma história: seus times jurídicos, financeiros, de P&D e suporte usam seus modelos, e eles nunca podem parar. É uma lógica de escritórios de advocacia e bancos de investimento, não de Facebook. Clientes poucos, preços altos, custos de transição quase infinitos. A estratégia da OpenAI é criar o próximo Windows + Office + Google em uma única superaplicação. ChatGPT é seu canal de distribuição (quase 1 bilhão de usuários semanais), Codex é seu lock-in de desenvolvedores, Operator é sua porta de entrada para operações de computador, o novo Mac App é seu espaço na área de trabalho. A frase de Brockman na apresentação, "computação agentic em escala", não é um slogan vazio — é o que eles querem fazer na próxima década. Não é só um chatbot inteligente, é a forma como os humanos usarão computadores no futuro. Você abre o computador e vê isso, trabalha com isso, gera documentos com isso, responde e-mails com isso, faz reuniões resumidas com isso. É o que Bill Gates tentou em 1990, Steve Jobs em 2007, e que a OpenAI pode realizar entre 2027 e 2030. O aumento de preço do GPT-5.5 é uma garantia dessa aposta. Três caminhos levam a Roma. Mas só um será o maior — e esse determinará a distribuição de riqueza na indústria de IA na próxima década. As três empresas anunciaram suas apostas na mesma semana. Claude Opus 4.7 é o caminho _seguro_ — estreito, profundo, com contratos de três anos e pagamentos de milhões. Sua vantagem é: qualquer empresa que queira usar IA como ferramenta de produtividade, mas tem medo de erros, não encontra opção mais confiável. GPT-5.5 é o caminho _caro_ — preços dobrados, ambição de superaplicação, liderança em capacidades agentic de comando e operação de computadores. Sua vantagem é: se "IA que controla toda a sua máquina" se concretizar em 2027, a OpenAI será a Microsoft dessa revolução, em 1995. Caso contrário, o preço de 5/30 dólares será apenas uma nota de rodapé cara. DeepSeek é o caminho _agressivo_ — código aberto, preço baixo, chips nacionais, abrindo brechas na barreira de proteção das outras duas. Sua vantagem é: se a fragmentação geopolítica continuar, e a IA se dividir em ecossistemas China e EUA, a DeepSeek será o Linux do ecossistema chinês. A probabilidade não é 50%, mas já é muito maior do que há um ano, quando era 5%. > Em janeiro de 2025, quando o R1 foi lançado, o mercado reagiu: "A IA chinesa chegou". Agora, com o V4, a palavra que o mercado precisa aprender é — "A IA chinesa começou a mudar as regras". Uma vez mudadas as regras, elas não voltam atrás. Às quatro e meia da tarde, o vento na California Avenue começou a esfriar. O copo do Zombie Café estava vazio. Alan dobrou os três papéis impressos, guardou na mochila. Ao sair, o cachorro levantou a cabeça, olhou ao redor, e voltou a deitar-se.
0
0
0
0
金色财经_

金色财经_

2 Horas atrás
O Google investirá até 40 mil milhões de dólares na Anthropic, aprofundando ainda mais a parceria entre as duas empresas. Ambas são parceiras e concorrentes na corrida pela inteligência artificial. Na sexta-feira, a Anthropic afirmou que o Google comprometeu-se a investir imediatamente 10 mil milhões de dólares em dinheiro, com uma avaliação de 380 mil milhões de dólares. O Google fará um investimento adicional de 30 mil milhões de dólares após a Anthropic atingir marcos de desempenho, além de expandir significativamente a capacidade computacional da Anthropic. A Anthropic é um cliente importante dos chips e serviços de nuvem do Google, enquanto o Google está a expandir esses negócios para compensar o crescimento mais maduro da sua principal fonte de receita — a publicidade de pesquisa. A Google Cloud fornecerá à Anthropic 5 gigawatts de capacidade computacional nos próximos cinco anos, começando a ser disponibilizada progressivamente a partir de 2027, com possibilidade de acrescentar mais alguns gigawatts posteriormente. Este acordo é uma expansão do acordo de cooperação assinado anteriormente este mês entre a Anthropic, o Google e a Broadcom. Os TPU do Google são uma das alternativas mais competitivas aos chips da Nvidia, sendo recursos escassos e valiosos para a Anthropic e outros desenvolvedores de IA, num setor com uma demanda de capacidade computacional extremamente elevada. 01 O Fim do Padrão das Três Grandes, Duas Forças em Confronto ----------------- A concretização deste investimento marca uma reestruturação fundamental na competição na indústria de IA. Nos últimos dois anos, o primeiro escalão de IA foi definido como as "Três Grandes" — OpenAI, Google e Anthropic, numa tríade dominante. Agora, essa narrativa chegou ao fim. Ao listar as captações de fundos da Anthropic nos últimos seis meses, revela-se uma realidade intrigante: Amazon: 5 mil milhões de dólares em dinheiro, limite de 25 mil milhões de dólares, mais 5 gigawatts de capacidade Trainium e contratos de compra de AWS no valor de 1 trilhão de dólares; Google: 1 mil milhão de dólares em dinheiro, limite de 40 mil milhões de dólares, mais 5 gigawatts de capacidade TPU; Nvidia: limite de 1 mil milhão de dólares, fornecimento de 1 gigawatt de GPU; Microsoft: limite de 500 milhões de dólares, Anthropic compra 30 mil milhões de dólares de capacidade de Azure. Quatro dos principais players do Vale do Silício estão presentes na lista de acionistas da Anthropic. A soma da capacidade computacional comprometida ultrapassa 11 gigawatts — equivalente à produção de 10 centrais nucleares. O cenário mudou de "três dominam o mundo" para uma batalha entre o campo da Anthropic e a OpenAI. A narrativa das "Três Grandes" ficou para trás. 02 Divergências Técnicas: Grandes Modelos + ASIC ou Grandes Modelos + GPU -------------------------- Por trás desta reorganização, surge uma distinção mais clara na estratégia tecnológica. A Anthropic segue a rota do "Grande Modelo + ASIC". Os TPU do Google e o Trainium da Amazon são chips especializados (ASICs) feitos sob medida para cargas de trabalho de IA. A base de capacidade da Anthropic no futuro será suportada principalmente por esses dois sistemas de ASIC. Uma das razões pelas quais o Google está disposto a investir 40 mil milhões de dólares na Anthropic é exatamente essa — o orçamento de capital do Google para este ano é de até 185 mil milhões de dólares, com grande parte investida em centros de dados e capacidade de TPU. Sem grandes clientes para consumir os TPUs, eles se tornam o estoque mais caro. A Anthropic é tanto uma porta de entrada para clientes empresariais quanto uma âncora valiosa para a capacidade de TPU do Google. Por outro lado, a OpenAI aposta na estratégia do "Grande Modelo + GPU". Sua capacidade principal vem do projeto Stargate, uma infraestrutura de grande escala avaliada em 500 mil milhões de dólares, baseada principalmente em GPUs da Nvidia. Essa rota tem a vantagem de contar com um ecossistema maduro de GPUs e uma pilha de software completa; porém, o ciclo de implementação é longo, com a produção total do Stargate prevista para cerca de 2029, enquanto a primeira instalação de data center no Texas ainda apresenta progresso lento. As duas rotas têm lógicas fundamentais distintas. A estratégia ASIC oferece maior eficiência energética e menor custo por unidade de capacidade, mas é altamente personalizada, com menor flexibilidade ecológica. A estratégia GPU é mais versátil, com um ecossistema de desenvolvedores mais amplo, porém consome mais energia e tem custos mais elevados. Na situação atual, há uma espécie de guerra de proxy entre os dois campos: Google e Amazon usam a Anthropic para validar e promover seus próprios chips ASIC, enquanto a Nvidia reforça sua posição dominante na infraestrutura de IA através da OpenAI e Stargate. 03 A Estratégia do Google: Em vez de Confrontar Diretamente, Aproveitar ------------------ O Google está disposto a investir 40 mil milhões de dólares em um concorrente aparente, e três números explicam essa postura. Primeiro, a receita anualizada da Anthropic em março de 2026 já ultrapassou 30 mil milhões de dólares, tendo sido de apenas cerca de 1 mil milhão de dólares no início de 2025 — um crescimento de 30 vezes em um ano. O Claude Code saiu da comunidade de programadores, canais empresariais se abriram, e clientes corporativos, de startups a empresas da Fortune 500, estão a adotar. Segundo, a avaliação implícita da Anthropic no mercado secundário já se aproxima de 1 trilhão de dólares, continuando a dominar a participação de mercado de desenvolvedores de IA em relação a produtos similares como o Gemini. Terceiro, embora o Google possua DeepMind, Gemini e a maior frota de TPU do mundo, a Gemini, lançada há mais de dois anos, ainda tem sua fatia de mercado empresarial dominada pelo Claude. Em vez de insistir na concorrência direta, o Google prefere aproveitar a oportunidade. O investimento na Anthropic é uma operação de hedge do tipo "se não puder vencer, compra". Se a Anthropic conquistar o mercado de IA empresarial, o Google obterá retorno de participação acionária; se a Gemini avançar, o Google ganha de ambos os lados; se a Gemini não vencer, a venda de TPUs se estabiliza e o negócio de IA do Google consegue se consolidar com a Anthropic. 04 O Papel Mais Embaraçoso: OpenAI ---------------- O problema de capacidade da Anthropic foi resolvido, enquanto o da OpenAI começa a se tornar mais evidente. Nos últimos quatro dias, a Anthropic fechou contratos de bilhões de dólares com Amazon e Google, comprometendo mais de 11 gigawatts de capacidade. A OpenAI, após quase um ano de coordenação do projeto Stargate, enfrenta rumores frequentes de lacunas de financiamento, com fundos prometidos pelo SoftBank ainda chegando aos poucos, e a Microsoft deixou de ser seu único fornecedor de capacidade. Um problema mais profundo é que as vantagens tradicionais da OpenAI estão sendo minadas. Apesar de o desempenho pontual do GPT ainda ser superior, o Claude Code avança na programação e o Claude aumenta sua participação no mercado empresarial. Além disso, o principal aliado da OpenAI, a Microsoft, já aparece discretamente como investidora na Anthropic — uma forma de "hedge" extrema: apoiando o Azure da OpenAI, ao mesmo tempo em que fornece capacidade de IA para a Anthropic. Se a Anthropic já reuniu gigantes de nuvem (Amazon, Google), gigantes de GPU (Nvidia) e o apoio de Microsoft, a OpenAI precisa urgentemente encontrar um parceiro estratégico de peso entre os capitais soberanos e os gigantes de nuvem — e precisa fazer isso rapidamente. A pontuação do Benchmark já não decide o destino da indústria de IA. O verdadeiro campo de batalha nesta reestruturação é uma disputa de três frentes: dinheiro, capacidade e ecossistema. Quando o Google investiu 40 mil milhões de dólares, o resultado do primeiro round já estava decidido.
0
0
0
0