OpenAI, Anthropic e a névoa da guerra de IA

O presidente Donald Trump ordenou na sexta-feira à tarde que todas as agências federais deixassem de usar a tecnologia de IA da Anthropic. Na mesma noite, o Pentágono classificou a empresa como um risco na cadeia de abastecimento, uma designação normalmente reservada para empresas chinesas suspeitas de espionagem, e que pode obrigar qualquer empresa que faça negócios com o Departamento de Defesa a provar que não utiliza as ferramentas da Anthropic.

No dia seguinte, os EUA atacaram o Irã com as ferramentas da Anthropic ainda em funcionamento no quartel-general militar no Oriente Médio, o Comando Central, usando-as para sistemas de inteligência e de alvo. Trump concedeu às agências seis meses para eliminarem a tecnologia, um reconhecimento tácito de que não se pode retirar a IA das operações militares de um dia para o outro.

A ruptura entre a administração e a Anthropic é nominalmente sobre limites de uso. A empresa afirmou que se recusou a permitir que suas ferramentas fossem usadas para armas autónomas ou vigilância em massa, e não cedeu quando os responsáveis exigiram permissão geral para usar a tecnologia em qualquer cenário legal. O CEO da Anthropic, Dario Amodei, disse que a empresa não podia concordar de boa consciência. Trump respondeu chamando a Anthropic de uma “empresa radical de esquerda, woke”, que nunca ditaria como o exército luta.

Horas após a proibição, a OpenAI anunciou um novo acordo para implementar seus modelos em ambientes classificados do Pentágono. O CEO da OpenAI, Sam Altman, revelou um detalhe importante: o acordo inclui as mesmas proibições de vigilância em massa e armas autónomas que a Anthropic buscava. O Pentágono, escreveu ele no X, “concorda com esses princípios, refletindo-os na lei e na política, e os incorporamos ao nosso acordo.”

Assim, a empresa que foi colocada na lista negra e a que foi recompensada parecem ter condições praticamente iguais. A diferença é provavelmente política, ou mais precisamente, a percepção de obediência que esta administração parece exigir do setor privado. O presidente da OpenAI doou 25 milhões de dólares a um super PAC pró-Trump no ano passado. A Anthropic contratou funcionários da administração Biden e fez lobby por regulamentação de IA.

Como afirmou um ex-funcionário de IA do exército durante o primeiro mandato de Trump: a Anthropic está pagando o preço por não se curvar.

O que não sabemos é pior do que o que sabemos

A manobra política importaria menos se não estivesse acontecendo num contexto de guerra real. O Wall Street Journal relatou que o Claude, IA da Anthropic, foi utilizado na operação do Irã no sábado, sendo usado para avaliações de inteligência, identificação de alvos e simulações de batalha. O Comando Central recusou-se a comentar sobre sistemas específicos envolvidos nas operações em curso.

Depois veio uma questão mais difícil. Quando um incidente de alvo errado, que supostamente matou mais de 150 crianças no Irã, ocorreu, observadores externos imediatamente questionaram se a IA poderia ter contribuído para o erro. A resposta honesta é que ninguém fora do Pentágono sabe, e o Pentágono não diz. O Secretário de Defesa, Pete Hegseth, que apostou sua gestão na adoção agressiva de IA, tem pouco incentivo para ser transparente.

Erros de alvo não são novos, mas a introdução de IA generativa na cadeia de alvos é. Trata-se de uma tecnologia que ainda tem alucinações, interpreta mal imagens e tropeça no raciocínio em ambientes comerciais de baixo risco. Implantá-la na guerra, onde as consequências de uma resposta errada podem ser medidas em vidas humanas, representa um salto que ninguém, militar ou não, testou rigorosamente.

A reação do público complicou a celebração da vitória. O aplicativo Claude da Anthropic chegou ao topo da App Store. Uma campanha de boicote popular incentivou os usuários a abandonarem o ChatGPT por causa do acordo do OpenAI com o Pentágono. No X, Altman enfrentou uma enxurrada de perguntas diretas: se o contrato do OpenAI permite todos os usos legais, como pode também proibir vigilância em massa e armas autónomas, que não têm uma proibição legal explícita? Se o OpenAI garantiu as mesmas linhas vermelhas que a Anthropic queria, por que o Pentágono não aceitou esses termos da Anthropic? As contradições importam além do discurso.

Essas empresas estão numa competição feroz por usuários pagantes, clientes empresariais e talentos de engenharia. Nenhuma é lucrativa. Ambas estão queimando bilhões e levantaram dezenas de bilhões mais recentemente para permanecer na corrida. Os contratos com o Pentágono valem cerca de 200 milhões de dólares cada, o que não é o maior cheque que ambas receberão este ano, mas de repente é a maior ameaça aos seus negócios.

Para a Anthropic, uma classificação de risco na cadeia de abastecimento vai muito além do Pentágono. Qualquer empresa que faça negócios com o governo federal, incluindo os maiores apoiantes da Anthropic, Amazon e Google, pode precisar provar que não usa o Claude. Essa questão pode impactar vendas empresariais, parcerias em nuvem e decisões de investimento muito além da defesa.

Para o OpenAI, o cálculo de um acordo de uso classificado é uma coisa como item de linha numa negociação de contrato. É outra quando bombas estão caindo ativamente e as questões sobre limites, erros de alvo e crianças mortas não têm respostas claras. A percepção de que seu chatbot ajuda a escolher alvos de bombardeio não é um problema de marca que algumas respostas nas redes sociais possam resolver.

📬 Inscreva-se no Briefing Diário

Nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de semana.

Inscreva-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar