Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Pentágono define oficialmente a Anthropic como ‘risco na cadeia de abastecimento’
A administração Trump está a cumprir a sua ameaça de designar a empresa de inteligência artificial Anthropic como um risco na cadeia de abastecimento, numa medida sem precedentes que pode obrigar outros contratantes governamentais a parar de usar o chatbot de IA Claude.
Vídeo Recomendado
O Pentágono afirmou numa declaração na quinta-feira que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco na cadeia de abastecimento, com efeito imediato.”
A decisão parece ter encerrado a oportunidade de negociações adicionais com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o Secretário de Defesa Pete Hegseth acusarem a empresa de colocar a segurança nacional em risco.
Trump e Hegseth anunciaram uma série de ameaças de punições na sexta-feira passada, na véspera de uma possível guerra com o Irão, após o CEO da Anthropic, Dario Amodei, se recusar a recuar devido a preocupações de que os produtos da empresa poderiam ser usados para vigilância em massa de americanos ou armas autónomas.
Amodei afirmou numa declaração na quinta-feira que “não acreditamos que esta ação seja legalmente fundamentada, e não vemos outra opção senão contestá-la em tribunal.”
A declaração do Pentágono disse: “isto tem sido sobre um princípio fundamental: o militar poder usar tecnologia para todos os fins legais. O militar não permitirá que um fornecedor se insira na cadeia de comando ao restringir o uso legal de uma capacidade crítica e colocar os nossos combatentes em risco.”
Amodei contrapôs que as exceções restritas que a Anthropic procurou para limitar a vigilância e as armas autónomas “relacionam-se a áreas de uso de alto nível, e não à tomada de decisões operacionais.”
Ele afirmou que houve “conversas produtivas” com o Pentágono nos últimos dias sobre se poderia continuar a usar o Claude ou estabelecer uma “transição suave” caso não fosse alcançado um acordo. Trump deu ao militar seis meses para eliminar o uso do Claude, que já está amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é uma prioridade garantir que os combatentes não fiquem “sem ferramentas importantes no meio de operações de combate de grande escala.”
Alguns contratantes militares já estavam a cortar laços com a Anthropic, uma estrela em ascensão na indústria tecnológica que vende o Claude a várias empresas e agências governamentais. A Lockheed Martin afirmou que irá “seguir a orientação do Presidente e do Departamento de Guerra” e procurar outros fornecedores de grandes modelos de linguagem.
“Esperamos impactos mínimos, pois a Lockheed Martin não depende de nenhum fornecedor único de LLM para qualquer parte do nosso trabalho,” disse a empresa.
Como o Departamento de Defesa interpretará o âmbito da designação de risco ainda não está claro. Amodei afirmou que uma notificação recebida pela Anthropic do Pentágono na quarta-feira mostra que ela se aplica apenas ao uso do Claude pelos clientes como uma “parte direta” dos seus contratos militares.
A Microsoft afirmou que os seus advogados estudaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com defesa.”
Pentágono enfrenta críticas pela sua decisão
A decisão do Pentágono de aplicar uma regra destinada a abordar ameaças na cadeia de abastecimento por parte de adversários estrangeiros foi recebida com ampla crítica. Os códigos federais definem o risco na cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter” um sistema para o perturbar, degradar ou espionar.
A Senadora Kirsten Gillibrand, democrata de Nova Iorque e membro do Comité de Serviços Armados do Senado e do Comité de Inteligência do Senado, chamou-lhe de “um uso perigoso de uma ferramenta destinada a combater tecnologia controlada por adversários.”
“Esta ação imprudente é de visão curta, autodestrutiva, e um presente para os nossos adversários,” afirmou numa declaração escrita na quinta-feira.
Neil Chilson, antigo chefe de tecnologia da Federal Trade Commission e atualmente líder de políticas de IA no Abundance Institute, disse que a decisão parece “uma ultrapassagem enorme que prejudicaria tanto o setor de IA dos EUA quanto a capacidade do exército de adquirir a melhor tecnologia para os combatentes americanos.”
Mais cedo no dia, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores americanos expressando “séria preocupação” com a designação.
“O uso desta autoridade contra uma empresa americana é uma grande desvio do seu propósito original e estabelece um precedente perigoso,” afirmou a carta, assinada por antigos responsáveis e especialistas em políticas, incluindo o ex-diretor da CIA Michael Hayden e líderes aposentados da Força Aérea, Exército e Marinha.
Eles acrescentaram que tal designação visa “proteger os Estados Unidos de infiltração por adversários estrangeiros — de empresas subordinadas a Pequim ou Moscovo, não de inovadores americanos que operam de forma transparente sob o Estado de Direito. Aplicar esta ferramenta para penalizar uma empresa dos EUA por recusar-se a remover salvaguardas contra vigilância doméstica em massa e armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”
Anthropic regista aumento de downloads por consumidores
Apesar de perder grandes parcerias com contratantes de defesa, a Anthropic registou um aumento de downloads por consumidores na última semana, devido ao apoio à sua postura moral. A empresa afirmou que mais de um milhão de pessoas se inscreveram no Claude por dia esta semana, elevando-o acima do ChatGPT da OpenAI e do Gemini do Google, como a principal aplicação de IA em mais de 20 países na loja de aplicações da Apple.
A disputa com o Pentágono também aprofundou ainda mais a rivalidade amarga entre a Anthropic e a OpenAI, que começou quando antigos líderes da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.
Horas após o Pentágono punir a Anthropic na sexta-feira passada, a OpenAI anunciou um acordo para substituir efetivamente a Anthropic pelo ChatGPT em ambientes militares classificados.
A OpenAI afirmou que procurou proteções semelhantes contra vigilância doméstica e armas totalmente autónomas, mas posteriormente teve que alterar os seus acordos, levando o CEO Sam Altman a dizer que não deveria ter apressado um acordo que “parecia oportunista e descuidado.”
Amodei também expressou arrependimento pelo seu papel naquele “dia difícil para a empresa,” dizendo na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna que enviou à equipa da Anthropic, na qual atacava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não dar “elogios de ditador” a Trump.
Junte-se a nós na Cimeira de Inovação no Local de Trabalho Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.