Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Empresa de IA Anthropic processa administração Trump buscando reverter a designação de 'risco na cadeia de abastecimento'
Empresa de inteligência artificial Anthropic processa para impedir que a administração Trump aplique o que chama de uma “campanha ilegal de retaliação” devido à sua recusa em permitir o uso militar irrestrito da sua tecnologia.
A Anthropic pediu aos tribunais federais na segunda-feira que revoguem a decisão do Pentágono na semana passada de designar a empresa de inteligência artificial como um “risco na cadeia de abastecimento”. A empresa também busca anular a ordem do Presidente Donald Trump que orienta os funcionários federais a parar de usar o chatbot de IA Claude.
O desafio legal intensifica uma disputa incomummente pública sobre como a IA pode ser usada em guerra e vigilância em massa — uma que também envolveu rivais da indústria tecnológica, especialmente a OpenAI, criadora do ChatGPT, que fez seu próprio acordo para trabalhar com o Pentágono poucas horas após o governo punir a Anthropic por sua posição.
A Anthropic entrou com duas ações judiciais na segunda-feira, uma no tribunal federal da Califórnia e outra na corte de apelações federal em Washington, D.C., cada uma contestando aspectos diferentes das ações do governo contra a empresa de São Francisco.
“Estas ações são sem precedentes e ilegais”, diz a ação da Anthropic. “A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida. Nenhum estatuto federal autoriza as ações tomadas aqui. A Anthropic recorre ao judiciário como último recurso para defender seus direitos e interromper a campanha ilegal de retaliação do Executivo.”
O Pentágono afirmou na segunda-feira que está rotulando a Anthropic como um risco na cadeia de abastecimento “com efeito imediato”.
O Departamento de Defesa recusou-se a comentar, citando uma política de não comentar assuntos em litígio.
A Anthropic afirmou que busca restringir o uso de sua tecnologia para vigilância em massa de americanos e armas totalmente autônomas. O Secretário de Defesa, Pete Hegseth, e outros altos funcionários insistiram publicamente que a empresa deve aceitar “todos os usos legais” de Claude, ameaçando punições se a Anthropic não cumprir, e condenaram a empresa e seu CEO Dario Amodei nas redes sociais.
A designação da empresa como risco na cadeia de abastecimento corta o trabalho de defesa da Anthropic usando uma autoridade criada para impedir que adversários estrangeiros prejudiquem sistemas de segurança nacional. Foi a primeira vez que o governo federal usou essa designação contra uma empresa americana. Hegseth afirmou, em uma carta de 4 de março à Anthropic, que isso era “necessário para proteger a segurança nacional”, segundo a ação judicial da Anthropic.
Trump também afirmou que ordenaria às agências federais que parassem de usar Claude, embora tenha dado ao Pentágono seis meses para eliminar um produto profundamente integrado em sistemas militares classificados, incluindo aqueles usados na guerra do Irã.
A ação judicial da Anthropic também cita outras agências federais, incluindo os departamentos do Tesouro e de Estado, após oficiais dessas agências ordenarem aos funcionários que parassem de usar Claude.
A Anthropic apresenta vários argumentos fortes relacionados à Primeira Emenda e ao devido processo legal, em um caso que “ultrapassou a compreensão”, disse Michael Pastor, professor na New York Law School, que trabalhou anteriormente como conselheiro geral de Nova York ajudando a elaborar contratos de tecnologia.
“Nunca vi um caso assim”, disse Pastor. “Nunca teria passado pela nossa cabeça que, ao termos dificuldades numa negociação, ameaçaríamos a empresa com destruição.”
Mesmo enquanto luta contra as ações do Pentágono, a Anthropic tenta convencer empresas e outras agências governamentais de que a designação de risco na cadeia de abastecimento do governo Trump é restrita a contratantes militares que usam Claude em trabalhos para o Departamento de Defesa.
Fazer essa distinção é crucial para a Anthropic, que é privada, pois a maior parte dos seus US$ 14 bilhões de receita projetada para este ano vem de empresas e agências governamentais que usam Claude para codificação e outras tarefas. Mais de 500 clientes pagam à Anthropic pelo menos US$ 1 milhão por ano pelo Claude, segundo um anúncio de investimento recente que avaliou a empresa em US$ 380 bilhões.
A Anthropic afirmou, numa declaração na segunda-feira, que “buscar revisão judicial não altera o nosso compromisso de longa data de usar IA para proteger a nossa segurança nacional, mas é um passo necessário para proteger nossos negócios, clientes e parceiros.”
A ação judicial posiciona a segurança da IA e “resultados positivos para a humanidade” como essenciais para a missão da Anthropic, desde sua fundação em 2021 por Amodei e outros seis ex-funcionários da OpenAI.
A política de uso da empresa sempre proibiu “guerra autônoma letal sem supervisão humana e vigilância em massa de americanos”, disse a Anthropic na sua ação. A empresa afirmou nunca ter testado Claude nessas aplicações e não confia que seus produtos possam “funcionar de forma confiável ou segura se usados para apoiar guerras autônomas letais.”
Ao mesmo tempo, a Anthropic permitiu que o militar usasse Claude de maneiras que civis não podem, incluindo operações militares e análise de “informações de inteligência estrangeira legalmente coletadas.”
Até recentemente, a Anthropic era a única de seus pares do setor de tecnologia autorizada a fornecer seu modelo de IA para sistemas militares classificados. A disputa levou o Pentágono a considerar transferir o trabalho de Claude para o Gemini do Google, o ChatGPT da OpenAI e o Grok de Elon Musk.
A ação judicial da Anthropic alega que as ações da administração Trump estão prejudicando sua reputação, “colocando em risco centenas de milhões de dólares” em contratos com outras empresas e tentando “destruir o valor econômico criado por uma das empresas privadas de crescimento mais rápido do mundo.”
Por outro lado, a disputa elevou a reputação da Anthropic entre alguns clientes e trabalhadores de tecnologia que apoiaram a recusa da empresa em ceder à pressão do governo Trump. A postura moral de Amodei foi ainda mais destacada quando seu rival, o CEO da OpenAI, Sam Altman, tentou substituir o Claude do Pentágono pelo ChatGPT, numa ação que admitiu ter sido apressada e oportunista.
As downloads do Claude aumentaram, elevando sua popularidade pela primeira vez acima do ChatGPT e do Gemini.
A forma como as empresas estabelecem limites também continua a repercutir na competição por talentos na indústria de IA. Caitlin Kalinowski, chefe de robótica da OpenAI, renunciou após o acordo da OpenAI com o Pentágono.
“Não foi uma decisão fácil”, escreveu Kalinowski nas redes sociais no fim de semana. “A IA tem um papel importante na segurança nacional. Mas a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são limites que mereciam mais reflexão do que tiveram.”
Outro grupo de mais de 30 principais desenvolvedores de IA, incluindo o cientista-chefe do Google e chefe da divisão de pesquisa em IA, Jeff Dean, apresentou na segunda-feira um parecer legal apoiando a Anthropic.
“Segurança nacional não é servida por designações irresponsáveis de parceiros tecnológicos militares americanos como ‘risco na cadeia de abastecimento’ ou pela supressão do discurso público sobre segurança de IA”, afirmou o documento, assinado por trabalhadores que disseram atuar em capacidade pessoal.