O ataque de Trump ao Irão e a nova geração de guerras de IA significam que as bombas podem cair mais rápido do que a velocidade do pensamento

A IA entrou na sala de guerra, e os especialistas dizem que não vai a lugar algum tão cedo.

Vídeo Recomendado


Apesar do presidente Donald Trump ter ordenado às agências federais e contratantes militares que cessassem negócios com a Anthropic, o exército dos EUA teria utilizado o modelo de IA da empresa, Claude, em seu ataque ao Irã, de acordo com o Wall Street Journal.

Agora, alguns especialistas estão levantando preocupações sobre o uso de IA em operações de guerra. “A máquina de IA está fazendo recomendações sobre o que atacar, o que na verdade é muito mais rápido, em alguns aspectos, do que o próprio pensamento,” disse Craig Jones, autor de The War Lawyers: The United States, Israel, and Juridical Warfare, que examina o papel dos advogados militares na guerra moderna, ao Guardian.

Em uma conversa com a Fortune, Jones, professor na Universidade de Newcastle sobre guerra e conflito, afirmou que a IA acelerou enormemente a “cadeia de morte”, comprimindo o tempo desde a identificação inicial do alvo até a destruição final. Ele disse que os ataques dos EUA e de Israel ao Irã, que resultaram na morte do aiatolá Ali Khamenei, talvez não tivessem acontecido sem a IA.

“Seria impossível, ou quase impossível, fazer dessa forma,” disse Jones à Fortune. “A velocidade com que foi realizado, e a magnitude e volume dos ataques, acho que são possibilitados pela IA.”

O Pentágono recrutou empresas de IA para acelerar e aprimorar o planejamento de guerra, entrando numa parceria com a Anthropic em 2024, que desmoronou na semana passada devido a desacordos sobre o uso do modelo de IA da empresa, Claude. Mas a OpenAI rapidamente fechou um acordo com o Pentágono, e a xAI de Elon Musk firmou um acordo para usar o modelo de IA da empresa, Grok, em sistemas confidenciais. O Exército dos EUA também utiliza o software da Palantir, especializada em mineração de dados, para obter insights habilitados por IA para tomada de decisão.

IA no campo de batalha

Jones afirmou que a Força Aérea dos EUA usa há anos a “velocidade do pensamento” como referência para o ritmo de tomada de decisão. Ele disse que o tempo desde a coleta de inteligência, como reconhecimento aéreo, até a execução de uma missão de bombardeio, podia levar até seis meses durante a Segunda Guerra Mundial e a Guerra do Vietnã. A IA reduziu significativamente esse prazo.

O papel principal das ferramentas de IA na sala de guerra é analisar rapidamente grandes volumes de dados. “Estamos falando de terabytes e mais terabytes de dados,” disse Jones, “de tudo, desde imagens aéreas, inteligência humana, inteligência da internet, rastreamento de telefones móveis, tudo e qualquer coisa.”

Amir Husain, coautor de Hyperwar: Conflict and Competition in the AI Century, afirmou que a IA está sendo usada para comprimir o quadro de decisão do exército dos EUA, conhecido como ciclo OODA — observar, orientar, decidir e agir. Ele disse que a IA já desempenha um papel importante na observação, na interpretação de dados de satélites e eletrônicos, na tomada de decisão tática, e na fase de “agir”, especificamente através de drones autônomos que devem operar sem orientação humana quando sinais são bloqueados. Alguns desses drones são cópias dos próprios drones autônomos Shahed do Irã.

A IA também apareceu em outros campos de batalha. Israel teria usado IA para identificar alvos do Hamas durante a guerra Israel-Hamas. E drones autônomos estão na linha de frente na guerra Rússia-Ucrânia, com ambos os lados empregando alguma variação de tecnologia autônoma.

Riscos multiplicados

No entanto, Jones destacou várias preocupações em relação à guerra habilitada por IA. “O problema ao adicionar IA é que você multiplica, por ordens de magnitude, os erros,” disse Jones.

Para garantir, Jones afirmou que erro humano existe com ou sem tecnologia de IA, citando a invasão dos EUA ao Iraque em 2003, uma guerra baseada em inteligência falha. Mas ele disse que a IA pode agravar esses erros devido à quantidade de dados que a tecnologia analisa.

Há também uma série de questões éticas levantadas pela guerra com IA, principalmente em torno da responsabilidade, algo que Husain disse que as Convenções de Genebra e as leis de conflito armado já exigem que os Estados cumpram. Com a IA borrando as linhas entre decisão de máquina e decisão humana, ele afirmou que a comunidade internacional deve garantir que a responsabilidade humana seja atribuída a todas as ações no campo de batalha.

“As leis de conflito armado exigem que culpemos a pessoa,” disse Husain. “A pessoa deve ser responsabilizada, independentemente do nível de automação usado no campo de batalha.”

Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune **de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

XAI-1,02%
GROK-3,41%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar