A disputa decorre de um contrato no valor de aproximadamente $200 milhões que a Anthropic assinou para usar o seu modelo de IA Claude em sistemas classificados para o exército dos EUA.
A Anthropic estabeleceu duas "linhas vermelhas" principais:
- Que a IA não seja usada para vigilância em massa de cidadãos americanos.
- Que não seja usada para **sistemas de armas totalmente autónomas** (armas que tomam decisões letais sem supervisão humana)
No entanto, o Pentágono exigiu o uso ilimitado da IA para "todos os fins legítimos" e não aceitou essas restrições. O Secretário de Defesa Pete Hegseth obrigou a empresa a cumprir até uma deadline de sexta-feira à noite (26 de fevereiro de 2026).
Quando não foi alcançado acordo:
- O Presidente Trump ordenou que todas as agências federais **interrompessem imediatamente** a tecnologia da Anthropic (dando ao Pentágono um período de transição de 6 meses).
- Hegseth declarou a Anthropic como um "risco na cadeia de abastecimento para a segurança nacional"—uma sanção normalmente usada contra ameaças estrangeiras; ela também proíbe os contratantes militares de fazer negócios com a empresa.
A Anthropic chamou a decisão de "inválida legalmente e que estabelece precedentes" e anunciou que levaria a questão ao tribunal. O CEO Dario Amodei enfatizou que não recuaria de sua posição.
Por fim, o Pentágono assinou um novo acordo com a OpenAI aceitando restrições semelhantes. Este evento marcou um ponto de viragem importante sobre quem deve definir limites ao uso militar da IA—empresas ou governo?
Resumindo: O que começou como uma discussão sobre preocupações de segurança escalou para pressão política e sanções. O conflito entre ética da IA e segurança nacional continua. #TrumpordersfederalbanonAnthropicAI
Ver original
User_any
#TrumpordersfederalbanonAnthropicAI O Presidente dos EUA, Donald Trump, proibiu as tecnologias de inteligência artificial da Anthropic em todas as agências do governo federal. Numa declaração na sua conta Truth Social, Trump descreveu a Anthropic como uma "empresa radical de esquerda, astuta" e, após uma disputa com o Pentágono, afirmou: "Parar imediatamente toda a utilização, não precisamos dela, não a queremos." O Pentágono declarou a Anthropic como um "risco para a segurança nacional" após a empresa tentar restringir os seus modelos de IA para fins militares (especificamente, uso irrestrito), concedendo às agências federais um período de transição de seis meses. Esta decisão levou a que a Anthropic perdesse contratos governamentais; empresas rivais (como a OpenAI) anunciaram novos acordos com o Pentágono.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Detalhes da Disputa Pentagon-Antrópica:
A disputa decorre de um contrato no valor de aproximadamente $200 milhões que a Anthropic assinou para usar o seu modelo de IA Claude em sistemas classificados para o exército dos EUA.
A Anthropic estabeleceu duas "linhas vermelhas" principais:
- Que a IA não seja usada para vigilância em massa de cidadãos americanos.
- Que não seja usada para **sistemas de armas totalmente autónomas** (armas que tomam decisões letais sem supervisão humana)
No entanto, o Pentágono exigiu o uso ilimitado da IA para "todos os fins legítimos" e não aceitou essas restrições. O Secretário de Defesa Pete Hegseth obrigou a empresa a cumprir até uma deadline de sexta-feira à noite (26 de fevereiro de 2026).
Quando não foi alcançado acordo:
- O Presidente Trump ordenou que todas as agências federais **interrompessem imediatamente** a tecnologia da Anthropic (dando ao Pentágono um período de transição de 6 meses).
- Hegseth declarou a Anthropic como um "risco na cadeia de abastecimento para a segurança nacional"—uma sanção normalmente usada contra ameaças estrangeiras; ela também proíbe os contratantes militares de fazer negócios com a empresa.
A Anthropic chamou a decisão de "inválida legalmente e que estabelece precedentes" e anunciou que levaria a questão ao tribunal. O CEO Dario Amodei enfatizou que não recuaria de sua posição.
Por fim, o Pentágono assinou um novo acordo com a OpenAI aceitando restrições semelhantes. Este evento marcou um ponto de viragem importante sobre quem deve definir limites ao uso militar da IA—empresas ou governo?
Resumindo: O que começou como uma discussão sobre preocupações de segurança escalou para pressão política e sanções. O conflito entre ética da IA e segurança nacional continua.
#TrumpordersfederalbanonAnthropicAI
O Presidente dos EUA, Donald Trump, proibiu as tecnologias de inteligência artificial da Anthropic em todas as agências do governo federal. Numa declaração na sua conta Truth Social, Trump descreveu a Anthropic como uma "empresa radical de esquerda, astuta" e, após uma disputa com o Pentágono, afirmou: "Parar imediatamente toda a utilização, não precisamos dela, não a queremos."
O Pentágono declarou a Anthropic como um "risco para a segurança nacional" após a empresa tentar restringir os seus modelos de IA para fins militares (especificamente, uso irrestrito), concedendo às agências federais um período de transição de seis meses. Esta decisão levou a que a Anthropic perdesse contratos governamentais; empresas rivais (como a OpenAI) anunciaram novos acordos com o Pentágono.