Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Anthropic processa o governo dos EUA por o classificar como um risco
A Anthropic processa o governo dos EUA por chamá-la de risco
há 1 dia
CompartilharSalvar
Kali Hays Repórter de Tecnologia
CompartilharSalvar
Reuters
A empresa de inteligência artificial (IA) Anthropic entrou com uma ação inédita contra o governo dos EUA, alegando que ela é um “risco na cadeia de abastecimento”.
O CEO da IA, Dario Amodei, e o Secretário de Defesa, Pete Hegseth, têm se envolvido em conflitos públicos devido à recusa da empresa em permitir o uso irrestrito de suas ferramentas de IA pelo militar.
O Pentágono retaliou, rotulando a Anthropic como a primeira empresa dos EUA a ser considerada um “risco na cadeia de abastecimento”, mas a Anthropic afirmou, em sua ação na segunda-feira contra várias agências do governo dos EUA, que a ação do governo foi “sem precedentes e ilegal”.
Um porta-voz do Departamento de Defesa dos EUA recusou-se a comentar, citando uma política de litígio ativo.
“A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por sua fala protegida”, escreveu a Anthropic. “Nenhum estatuto federal autoriza as ações tomadas aqui.”
A ação da Anthropic é contra o escritório executivo do presidente Donald Trump; vários líderes do governo, incluindo Hegseth, o Secretário de Estado Marco Rubio e o Secretário de Comércio Howard Lutnick; e 16 agências governamentais, incluindo o Departamento de Guerra, o Departamento de Segurança Interna e o Departamento de Energia.
O Departamento de Guerra é um nome secundário dado por Trump ao Departamento de Defesa.
Liz Huston, porta-voz da Casa Branca, disse à BBC que a Anthropic é “uma empresa radical de esquerda, woke”, tentando controlar a atividade militar.
“Sob a administração Trump, nosso militar obedecerá à Constituição dos Estados Unidos – e não aos termos de serviço de qualquer empresa de IA woke”, afirmou Huston.
A Anthropic contestou isso em sua queixa legal apresentada na manhã de segunda-feira no tribunal federal da Califórnia.
A empresa afirmou que Hegseth exigiu que ela removesse quaisquer restrições de uso de seu contrato de defesa, apesar de limitações sobre “guerra autônoma letal” e “vigilância em massa de americanos” sempre terem feito parte de seus contratos com o governo.
A Anthropic vem sendo utilizada pelo governo e pelo militar dos EUA desde 2024 e foi a primeira empresa de IA avançada a ter suas ferramentas implantadas em agências governamentais que realizam trabalhos confidenciais.
‘Castigo público’
A Anthropic afirmou que trabalhou com Hegseth na revisão da linguagem do contrato para atender às necessidades de uso militar. Embora estivesse perto de uma negociação bem-sucedida para continuar colaborando com o departamento, incluindo limitações relativas à vigilância e armamento, essas negociações foram abruptamente interrompidas.
Em vez disso, o Departamento de Defesa “enfrentou as tentativas de compromisso da Anthropic com castigo público”.
Enquanto negociava com oficiais de defesa, Trump criticou a empresa como sendo dirigida por “loucos de esquerda” e ordenou que todas as agências do governo parassem de usar as ferramentas da Anthropic.
Hegseth rapidamente seguiu a declaração de Trump, rotulando a Anthropic como um “risco na cadeia de abastecimento”, o que fez com que ferramentas como Claude fossem consideradas inseguras para uso governamental. Ele também proibiu qualquer empresa que trabalhasse com o governo de usar as ferramentas da Anthropic.
Claude é uma das ferramentas de IA mais populares do mundo, com o Claude Code sendo uma parte quase onipresente do trabalho realizado por algumas das maiores empresas de tecnologia dos EUA, incluindo Google, Meta, Amazon e Microsoft.
Essas empresas também trabalham com o governo. Na semana passada, Microsoft, Google e Amazon disseram que continuariam a usar Claude fora de qualquer trabalho para agências de defesa.
No entanto, a Anthropic afirma que foi “irreparavelmente” prejudicada pelos comentários de Trump e Hegseth.
“Contratos atuais e futuros com partes privadas também estão em dúvida, colocando centenas de milhões de dólares em risco a curto prazo”, afirmou a empresa. “Além desses danos econômicos imediatos, a reputação da Anthropic e suas liberdades fundamentais garantidas pela Primeira Emenda estão sendo atacadas.”
A Anthropic também destacou o “efeito de intimidação” na liberdade de expressão causado pela retaliação da administração Trump sobre outras entidades.
Mas, até segunda-feira à tarde, quase 40 funcionários do Google e da OpenAI apresentaram ao tribunal um parecer apoiando a Anthropic e seus esforços para limitar usos indevidos de IA, oferecendo sua expertise sobre os perigos de uso em larga escala da tecnologia.
“Como grupo, somos diversos em nossas políticas e filosofias, mas estamos unidos na convicção de que os sistemas de IA de fronteira de hoje apresentam riscos quando implantados para permitir vigilância doméstica em massa ou operação de sistemas autônomos de armas letais sem supervisão humana, e que esses riscos exigem algum tipo de barreira, seja por salvaguardas técnicas ou restrições de uso”, disseram os signatários do parecer.
Google e OpenAI são considerados rivais da Anthropic no que diz respeito às ferramentas de IA, e ambas também têm ferramentas em uso pelo governo.
O CEO da OpenAI, Sam Altman, admitiu na semana passada que acelerou o contrato da empresa com o Departamento de Defesa após o fallout da Anthropic com o governo.
A Anthropic não busca danos financeiros com sua ação, mas pede ao tribunal que declare imediatamente que a orientação de Trump “excede a autoridade do presidente” e viola a Constituição, além de rejeitar imediatamente o rótulo de risco na cadeia de abastecimento.
Carl Tobias, professor na Universidade de Richmond, afirmou que, embora uma resolução rápida do processo seja possível, espera que a administração Trump adote uma abordagem de “terra arrasada”.
“A Anthropic pode muito bem vencer na justiça federal, mas esse governo não hesitará em recorrer”, disse Tobias. “Provavelmente irá ao Supremo Tribunal.”