Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
OpenAI e Anthropic de "troça" para diferença: Guerra ética com o Departamento de Defesa dos EUA
Recentemente, esses dois gigantes da tecnologia de IA publicamente zombaram um do outro nas plataformas de comunicação para conquistar usuários. Mas quando o Departamento de Defesa dos EUA entrou na jogada, eles de repente tiveram que se unir contra a pressão do Pentágono. Essa batalha não é apenas sobre dinheiro ou contratos militares, mas sobre uma questão fundamental: como a IA deve ser usada quando a segurança nacional está em jogo?
De “zombar” a alianças: por que duas empresas de IA se uniram contra o Pentágono
Antes, a disputa entre OpenAI e Anthropic era intensa. Claude foi desenvolvido por uma equipe que saiu da OpenAI, e ambas as empresas competiam ferozmente por usuários, clientes corporativos e investimentos. No Super Bowl do ano passado, a Anthropic até gastou dinheiro para zombar do ChatGPT da OpenAI em seus comerciais televisivos. Essa era a tensão entre elas.
Porém, a situação mudou quando a Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa dos EUA. Claude se tornou o primeiro modelo de IA implantado na rede de computadores secreta do exército americano, apoiando análise de inteligência e planejamento de missões. Contudo, a Anthropic estabeleceu duas condições claras: Claude não poderia ser usado para vigilância em massa de cidadãos americanos, nem desenvolvido como arma autônoma sem controle humano.
O Pentágono não aceitou. Sua posição era simples: ao adquirir uma ferramenta, eles a usariam livremente, sem que nenhuma empresa de tecnologia lhes dissesse o que fazer. O Secretário de Defesa Hegseth deu um ultimato direto: a Anthropic deveria concordar até às 17h01 de sexta-feira, ou enfrentaria consequências. O CEO da Anthropic recusou. Ele declarou publicamente que, embora entendesse a importância da IA para a defesa, em certos casos, ela poderia prejudicar valores democráticos. Não podíamos aceitar essa exigência de forma consciente.
A reação do Pentágono foi dura. O vice-secretário de Defesa, Emil Michael, chamou o CEO da Anthropic de enganador nas redes sociais, dizendo que ele tinha uma mentalidade salvacionista, brincando com a segurança nacional.
O que aconteceu a seguir foi inesperado. Mais de 400 funcionários da OpenAI e do Google assinaram uma carta pública conjunta intitulada “Não seremos divididos”. A carta apontava que o Pentágono estava usando táticas de divisão, manipulando cada empresa de IA individualmente e tentando fazer com que outras aceitassem condições que a Anthropic recusara.
O CEO da OpenAI também enviou uma carta interna a todos os funcionários, dizendo que a OpenAI tinha as mesmas linhas vermelhas da Anthropic: não vigilância em massa, não desenvolvimento de armas autônomas letais. Poucos dias antes, eles não estavam nem se apoiando mutuamente, e de repente essas empresas se uniram para resistir à pressão do Pentágono. Essa unidade parecia uma vitória dos princípios éticos.
Linhas vermelhas éticas: Anthropic firme, OpenAI recuando
Porém, essa união durou apenas algumas horas. Quando o prazo do ultimato expirou, a Anthropic recusou-se a assinar. Uma empresa avaliada em 380 bilhões de dólares estava disposta a enfrentar o risco de perder um contrato de 200 milhões com o Departamento de Defesa dos EUA.
A reação de Washington não foi comercial. Trump publicou uma mensagem no Truth Social uma hora depois, chamando a Anthropic de “loucos de esquerda” e dizendo que eles tentavam se colocar acima da Constituição, brincando com a vida dos soldados americanos. Ele exigiu que todas as agências federais parassem imediatamente de usar a tecnologia da Anthropic.
Depois, o Secretário de Defesa Hegseth colocou a Anthropic na lista de “risco à segurança da cadeia de suprimentos” — uma etiqueta geralmente reservada para empresas como Huawei. O significado era claro: todos os contratantes que trabalham com o exército americano não poderiam usar produtos da Anthropic. A Anthropic anunciou que processaria judicialmente.
Na mesma noite, a OpenAI — que até então mantinha uma posição semelhante — assinou um acordo com o Pentágono. A questão que surge é: o que a OpenAI ganhou com isso?
Primeiro, uma posição de exclusividade: tornou-se fornecedora de IA para a rede secreta do exército americano após a exclusão do Claude. Mas a OpenAI também colocou três condições para o Pentágono: não realizar vigilância em massa, não desenvolver armas autônomas letais, e que todas as decisões de alto risco envolvam participação humana.
O Departamento de Defesa dos EUA afirmou que aceitou.
Exatamente — essas condições que a Anthropic hesitou semanas para ceder, mas que uma outra empresa apresentou e em poucos dias negociou. Contudo, as soluções não são exatamente iguais. A Anthropic acrescentou uma camada de proteção: argumenta que a legislação atual não acompanha o potencial da IA. Por exemplo, a IA pode legalmente comprar e agregar dados de localização, histórico de navegação e redes sociais, criando uma espécie de vigilância indireta, sem violar a lei passo a passo. A Anthropic acredita que apenas escrever “sem vigilância” não é suficiente, é preciso corrigir essas brechas legais.
A OpenAI não insiste nesse ponto. Aceita a visão do Pentágono de que a legislação atual é suficiente. Mas, se você pensa que isso é apenas uma questão de termos contratuais, está enganado. Por trás dos números e contratos, há uma batalha de ideologias.
David Sacks, o “imperador da IA” na Casa Branca, criticou publicamente a Anthropic por desenvolver uma “IA woke” — que busca a correção política acima do desempenho. Um alto funcionário do Pentágono disse à mídia que o problema da Anthropic é dominado por ideologia. A xAI de Elon Musk, concorrente direto da Anthropic, constantemente atacou a empresa no X, alegando que a Anthropic “odeia a civilização ocidental”. Curiosamente, o CEO da Anthropic no ano passado não participou da posse de Trump, enquanto o CEO da OpenAI sim.
Efeito “matar a galinha para assustar o macaco” e o futuro das empresas de IA
Resumindo o que aconteceu: com o mesmo princípio ético, a mesma linha vermelha, a Anthropic, ao acrescentar uma camada de proteção, mostrou uma postura errada e foi rotulada como uma ameaça à segurança nacional dos EUA, equiparada à Huawei. A OpenAI, ao deixar passar uma camada, manteve boas relações com o governo e conseguiu um contrato vantajoso.
Seria isso uma vitória dos princípios ou apenas uma avaliação de princípios?
Contratos militares cercados de controvérsia não são novidade. Em 2018, mais de 4.000 funcionários da Google assinaram uma petição, e dezenas saíram, protestando contra a participação da empresa no Project Maven — projeto do Pentágono que usava IA para analisar vídeos de drones e ajudar a identificar alvos mais rapidamente. A Google acabou saindo. Sem renovação, apenas saiu. Os funcionários venceram.
Já se passaram oito anos. E uma disputa semelhante reapareceu. Mas, desta vez, as regras do jogo mudaram completamente.
Uma empresa americana me disse que posso fazer negócios com o exército, mas há duas coisas que não posso fazer. A reação do governo dos EUA foi removê-la de todo o sistema federal. A etiqueta de “risco à segurança da cadeia de suprimentos” causa danos muito maiores do que a simples perda de um contrato de 200 milhões de dólares. A receita da Anthropic este ano é cerca de 14 bilhões de dólares, então esse contrato é pequeno. Mas essa etiqueta significa que qualquer empresa que negocie com o exército americano não pode usar Claude.
Essas empresas não precisam concordar com a visão do Pentágono. Basta fazer uma avaliação de risco simples: continuar usando Claude pode perder contratos governamentais; mudar de modelo, não há problema algum. A decisão é extremamente fácil.
Esse é o verdadeiro sinal da questão. Se a Anthropic consegue suportar ou não, pouco importa. O que importa é se a próxima empresa terá coragem de suportar. Ela vai avaliar esse resultado, considerar o custo de manter seus princípios éticos e tomar uma decisão racional do ponto de vista econômico. O efeito “matar a galinha para assustar o macaco” — eliminar uma empresa para alertar as demais — é a estratégia real que está em andamento.
Olhe para aquela imagem da Índia, onde todos se unem com as mãos levantadas, exceto duas pessoas que apertam o punho fechado. Talvez esse seja o verdadeiro estado normal. Os princípios éticos das empresas de IA podem ser semelhantes, mas as mãos nem sempre precisam estar abertas — especialmente quando políticos incentivam zombarias e punições contra quem não segue a linha.