Anthropic processa o governo dos EUA por o classificar como um risco

A Anthropic processa o governo dos EUA por chamá-la de risco

há 1 dia

CompartilharSalvar

Kali Hays Repórter de Tecnologia

CompartilharSalvar

Reuters

A empresa de inteligência artificial (IA) Anthropic entrou com uma ação inédita contra o governo dos EUA, alegando que ela é um “risco na cadeia de abastecimento”.

O CEO da IA, Dario Amodei, e o Secretário de Defesa, Pete Hegseth, têm se envolvido em conflitos públicos devido à recusa da empresa em permitir o uso irrestrito de suas ferramentas de IA pelo militar.

O Pentágono retaliou, rotulando a Anthropic como a primeira empresa dos EUA a ser considerada um “risco na cadeia de abastecimento”, mas a Anthropic afirmou, em sua ação na segunda-feira contra várias agências do governo dos EUA, que a ação do governo foi “sem precedentes e ilegal”.

Um porta-voz do Departamento de Defesa dos EUA recusou-se a comentar, citando uma política de litígio ativo.

“A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por sua fala protegida”, escreveu a Anthropic. “Nenhum estatuto federal autoriza as ações tomadas aqui.”

A ação da Anthropic é contra o escritório executivo do presidente Donald Trump; vários líderes do governo, incluindo Hegseth, o Secretário de Estado Marco Rubio e o Secretário de Comércio Howard Lutnick; e 16 agências governamentais, incluindo o Departamento de Guerra, o Departamento de Segurança Interna e o Departamento de Energia.

O Departamento de Guerra é um nome secundário dado por Trump ao Departamento de Defesa.

Liz Huston, porta-voz da Casa Branca, disse à BBC que a Anthropic é “uma empresa radical de esquerda, woke”, tentando controlar a atividade militar.

“Sob a administração Trump, nosso militar obedecerá à Constituição dos Estados Unidos – e não aos termos de serviço de qualquer empresa de IA woke”, afirmou Huston.

A Anthropic contestou isso em sua queixa legal apresentada na manhã de segunda-feira no tribunal federal da Califórnia.

A empresa afirmou que Hegseth exigiu que ela removesse quaisquer restrições de uso de seu contrato de defesa, apesar de limitações sobre “guerra autônoma letal” e “vigilância em massa de americanos” sempre terem feito parte de seus contratos com o governo.

A Anthropic vem sendo utilizada pelo governo e pelo militar dos EUA desde 2024 e foi a primeira empresa de IA avançada a ter suas ferramentas implantadas em agências governamentais que realizam trabalhos confidenciais.

‘Castigo público’

A Anthropic afirmou que trabalhou com Hegseth na revisão da linguagem do contrato para atender às necessidades de uso militar. Embora estivesse perto de uma negociação bem-sucedida para continuar colaborando com o departamento, incluindo limitações relativas à vigilância e armamento, essas negociações foram abruptamente interrompidas.

Em vez disso, o Departamento de Defesa “enfrentou as tentativas de compromisso da Anthropic com castigo público”.

Enquanto negociava com oficiais de defesa, Trump criticou a empresa como sendo dirigida por “loucos de esquerda” e ordenou que todas as agências do governo parassem de usar as ferramentas da Anthropic.

Hegseth rapidamente seguiu a declaração de Trump, rotulando a Anthropic como um “risco na cadeia de abastecimento”, o que fez com que ferramentas como Claude fossem consideradas inseguras para uso governamental. Ele também proibiu qualquer empresa que trabalhasse com o governo de usar as ferramentas da Anthropic.

Claude é uma das ferramentas de IA mais populares do mundo, com o Claude Code sendo uma parte quase onipresente do trabalho realizado por algumas das maiores empresas de tecnologia dos EUA, incluindo Google, Meta, Amazon e Microsoft.

Essas empresas também trabalham com o governo. Na semana passada, Microsoft, Google e Amazon disseram que continuariam a usar Claude fora de qualquer trabalho para agências de defesa.

No entanto, a Anthropic afirma que foi “irreparavelmente” prejudicada pelos comentários de Trump e Hegseth.

“Contratos atuais e futuros com partes privadas também estão em dúvida, colocando centenas de milhões de dólares em risco a curto prazo”, afirmou a empresa. “Além desses danos econômicos imediatos, a reputação da Anthropic e suas liberdades fundamentais garantidas pela Primeira Emenda estão sendo atacadas.”

A Anthropic também destacou o “efeito de intimidação” na liberdade de expressão causado pela retaliação da administração Trump sobre outras entidades.

Mas, até segunda-feira à tarde, quase 40 funcionários do Google e da OpenAI apresentaram ao tribunal um parecer apoiando a Anthropic e seus esforços para limitar usos indevidos de IA, oferecendo sua expertise sobre os perigos de uso em larga escala da tecnologia.

“Como grupo, somos diversos em nossas políticas e filosofias, mas estamos unidos na convicção de que os sistemas de IA de fronteira de hoje apresentam riscos quando implantados para permitir vigilância doméstica em massa ou operação de sistemas autônomos de armas letais sem supervisão humana, e que esses riscos exigem algum tipo de barreira, seja por salvaguardas técnicas ou restrições de uso”, disseram os signatários do parecer.

Google e OpenAI são considerados rivais da Anthropic no que diz respeito às ferramentas de IA, e ambas também têm ferramentas em uso pelo governo.

O CEO da OpenAI, Sam Altman, admitiu na semana passada que acelerou o contrato da empresa com o Departamento de Defesa após o fallout da Anthropic com o governo.

A Anthropic não busca danos financeiros com sua ação, mas pede ao tribunal que declare imediatamente que a orientação de Trump “excede a autoridade do presidente” e viola a Constituição, além de rejeitar imediatamente o rótulo de risco na cadeia de abastecimento.

Carl Tobias, professor na Universidade de Richmond, afirmou que, embora uma resolução rápida do processo seja possível, espera que a administração Trump adote uma abordagem de “terra arrasada”.

“A Anthropic pode muito bem vencer na justiça federal, mas esse governo não hesitará em recorrer”, disse Tobias. “Provavelmente irá ao Supremo Tribunal.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar