Pentágono define oficialmente a Anthropic como ‘risco na cadeia de abastecimento’

A administração Trump está a cumprir a sua ameaça de designar a empresa de inteligência artificial Anthropic como um risco na cadeia de abastecimento, numa medida sem precedentes que pode obrigar outros contratantes governamentais a parar de usar o chatbot de IA Claude.

Vídeo Recomendado


O Pentágono afirmou numa declaração na quinta-feira que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco na cadeia de abastecimento, com efeito imediato.”

A decisão parece ter encerrado a oportunidade de negociações adicionais com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o Secretário de Defesa Pete Hegseth acusarem a empresa de colocar a segurança nacional em risco.

Trump e Hegseth anunciaram uma série de ameaças de punições na sexta-feira passada, na véspera de uma possível guerra com o Irão, após o CEO da Anthropic, Dario Amodei, se recusar a recuar devido a preocupações de que os produtos da empresa poderiam ser usados para vigilância em massa de americanos ou armas autónomas.

Amodei afirmou numa declaração na quinta-feira que “não acreditamos que esta ação seja legalmente fundamentada, e não vemos outra opção senão contestá-la em tribunal.”

A declaração do Pentágono disse: “isto tem sido sobre um princípio fundamental: o militar poder usar tecnologia para todos os fins legais. O militar não permitirá que um fornecedor se insira na cadeia de comando ao restringir o uso legal de uma capacidade crítica e colocar os nossos combatentes em risco.”

Amodei contrapôs que as exceções restritas que a Anthropic procurou para limitar a vigilância e as armas autónomas “relacionam-se a áreas de uso de alto nível, e não à tomada de decisões operacionais.”

Ele afirmou que houve “conversas produtivas” com o Pentágono nos últimos dias sobre se poderia continuar a usar o Claude ou estabelecer uma “transição suave” caso não fosse alcançado um acordo. Trump deu ao militar seis meses para eliminar o uso do Claude, que já está amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é uma prioridade garantir que os combatentes não fiquem “sem ferramentas importantes no meio de operações de combate de grande escala.”

Alguns contratantes militares já estavam a cortar laços com a Anthropic, uma estrela em ascensão na indústria tecnológica que vende o Claude a várias empresas e agências governamentais. A Lockheed Martin afirmou que irá “seguir a orientação do Presidente e do Departamento de Guerra” e procurar outros fornecedores de grandes modelos de linguagem.

“Esperamos impactos mínimos, pois a Lockheed Martin não depende de nenhum fornecedor único de LLM para qualquer parte do nosso trabalho,” disse a empresa.

Como o Departamento de Defesa interpretará o âmbito da designação de risco ainda não está claro. Amodei afirmou que uma notificação recebida pela Anthropic do Pentágono na quarta-feira mostra que ela se aplica apenas ao uso do Claude pelos clientes como uma “parte direta” dos seus contratos militares.

A Microsoft afirmou que os seus advogados estudaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com defesa.”

Pentágono enfrenta críticas pela sua decisão

A decisão do Pentágono de aplicar uma regra destinada a abordar ameaças na cadeia de abastecimento por parte de adversários estrangeiros foi recebida com ampla crítica. Os códigos federais definem o risco na cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter” um sistema para o perturbar, degradar ou espionar.

A Senadora Kirsten Gillibrand, democrata de Nova Iorque e membro do Comité de Serviços Armados do Senado e do Comité de Inteligência do Senado, chamou-lhe de “um uso perigoso de uma ferramenta destinada a combater tecnologia controlada por adversários.”

“Esta ação imprudente é de visão curta, autodestrutiva, e um presente para os nossos adversários,” afirmou numa declaração escrita na quinta-feira.

Neil Chilson, antigo chefe de tecnologia da Federal Trade Commission e atualmente líder de políticas de IA no Abundance Institute, disse que a decisão parece “uma ultrapassagem enorme que prejudicaria tanto o setor de IA dos EUA quanto a capacidade do exército de adquirir a melhor tecnologia para os combatentes americanos.”

Mais cedo no dia, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores americanos expressando “séria preocupação” com a designação.

“O uso desta autoridade contra uma empresa americana é uma grande desvio do seu propósito original e estabelece um precedente perigoso,” afirmou a carta, assinada por antigos responsáveis e especialistas em políticas, incluindo o ex-diretor da CIA Michael Hayden e líderes aposentados da Força Aérea, Exército e Marinha.

Eles acrescentaram que tal designação visa “proteger os Estados Unidos de infiltração por adversários estrangeiros — de empresas subordinadas a Pequim ou Moscovo, não de inovadores americanos que operam de forma transparente sob o Estado de Direito. Aplicar esta ferramenta para penalizar uma empresa dos EUA por recusar-se a remover salvaguardas contra vigilância doméstica em massa e armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”

Anthropic regista aumento de downloads por consumidores

Apesar de perder grandes parcerias com contratantes de defesa, a Anthropic registou um aumento de downloads por consumidores na última semana, devido ao apoio à sua postura moral. A empresa afirmou que mais de um milhão de pessoas se inscreveram no Claude por dia esta semana, elevando-o acima do ChatGPT da OpenAI e do Gemini do Google, como a principal aplicação de IA em mais de 20 países na loja de aplicações da Apple.

A disputa com o Pentágono também aprofundou ainda mais a rivalidade amarga entre a Anthropic e a OpenAI, que começou quando antigos líderes da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.

Horas após o Pentágono punir a Anthropic na sexta-feira passada, a OpenAI anunciou um acordo para substituir efetivamente a Anthropic pelo ChatGPT em ambientes militares classificados.

A OpenAI afirmou que procurou proteções semelhantes contra vigilância doméstica e armas totalmente autónomas, mas posteriormente teve que alterar os seus acordos, levando o CEO Sam Altman a dizer que não deveria ter apressado um acordo que “parecia oportunista e descuidado.”

Amodei também expressou arrependimento pelo seu papel naquele “dia difícil para a empresa,” dizendo na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna que enviou à equipa da Anthropic, na qual atacava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não dar “elogios de ditador” a Trump.

Junte-se a nós na Cimeira de Inovação no Local de Trabalho Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar