L'attaque de Trump contre l'Iran et la nouvelle génération de guerres d'IA signifient que des bombes peuvent tomber plus vite que la vitesse de la pensée
L’IA est entrée dans la salle de guerre, et selon les experts, elle n’en sortira pas de sitôt.
Vidéo recommandée
Malgré le fait que le président Donald Trump ait demandé aux agences fédérales et aux contractants militaires de cesser leurs activités avec Anthropic, l’armée américaine aurait utilisé le modèle d’IA de l’entreprise, Claude, dans son attaque contre l’Iran, selon The Wall Street Journal.
Aujourd’hui, certains experts expriment des inquiétudes quant à l’utilisation de l’IA dans les opérations militaires. « La machine d’IA fait des recommandations sur ce qu’il faut cibler, ce qui est en réalité beaucoup plus rapide, à certains égards, que la vitesse de la pensée », a déclaré le Dr Craig Jones, auteur de The War Lawyers: U.S., Israel and the Spaces of Targeting, qui examine le rôle des juristes militaires dans la guerre moderne, à The Guardian.
Dans une interview avec Fortune, Jones, enseignant à l’Université de Newcastle sur la guerre et le conflit, a expliqué que l’IA a considérablement accéléré la « chaîne de destruction », réduisant le temps entre l’identification initiale de la cible et la destruction finale. Il a indiqué que les frappes américaines et israéliennes contre l’Iran, qui ont entraîné la mort de l’ayatollah Ali Khamenei, n’auraient peut-être pas eu lieu sans l’IA.
« Cela aurait été impossible, ou presque impossible, à faire de cette manière », a déclaré Jones à Fortune. « La rapidité avec laquelle cela a été réalisé, ainsi que l’ampleur et le volume des frappes, je pense qu’ils sont rendus possibles par l’IA. »
Le Pentagone a fait appel à des entreprises d’IA pour accélérer et améliorer la planification de la guerre, en concluant un partenariat avec Anthropic en 2024, qui s’est effondré la semaine dernière en raison de désaccords sur l’utilisation du modèle d’IA de l’entreprise, Claude. Mais OpenAI a rapidement conclu un accord avec le Pentagone, et xAI d’Elon Musk a signé un accord pour utiliser le modèle d’IA de l’entreprise, Grok, dans des systèmes classifiés. L’armée américaine utilise également le logiciel de la société de data-mining Palantir pour des insights basés sur l’IA en vue de la prise de décision.
L’IA sur le champ de bataille
Jones a indiqué que l’US Air Force utilise depuis des années la « vitesse de la pensée » comme référence pour le rythme de la prise de décision. Il a expliqué que le délai entre la collecte de renseignements, comme la reconnaissance aérienne, et l’exécution d’une mission de bombardement pouvait atteindre jusqu’à six mois pendant la Seconde Guerre mondiale et la guerre du Vietnam. L’IA a considérablement réduit ce délai.
Le rôle clé des outils d’IA dans la salle de guerre est d’analyser rapidement d’énormes quantités de données. « Nous parlons de téraoctets, de téraoctets, de téraoctets de données », a déclaré Jones, « tout, depuis des images aériennes, du renseignement humain, du renseignement internet, du suivi des téléphones mobiles, tout et n’importe quoi. »
Le Dr Amir Husain, co-auteur de Hyperwar: Conflict and Competition in the AI Century, a déclaré que l’IA est utilisée pour compresser le cadre décisionnel militaire américain, connu sous le nom de boucle OODA — un acronyme pour observer, orienter, décider et agir. Il a indiqué que l’IA joue déjà un rôle important dans l’observation, ou dans l’interprétation des données satellitaires et électroniques, la prise de décision tactique, et la phase « agir », notamment à travers des drones autonomes qui doivent fonctionner sans guidance humaine lorsque les signaux sont brouillés. Certains de ces drones sont en fait des copies des drones autonomes Shahed de l’Iran.
L’IA est également apparue sur d’autres champs de bataille. Israël aurait utilisé l’IA pour identifier des cibles du Hamas lors de la guerre Israël-Hamas. Et des drones autonomes sont en première ligne dans la guerre Russie-Ukraine, la Russie et l’Ukraine employant tous deux une certaine forme de technologie autonome.
Multiplication des risques
Cependant, Jones a souligné plusieurs préoccupations concernant la guerre assistée par l’IA. « Le problème lorsque vous ajoutez de l’IA, c’est que vous multipliez, à mon avis, par des ordres de grandeur, le degré d’erreur », a-t-il déclaré.
Pour être sûr, Jones a précisé que l’erreur humaine existe avec ou sans technologie d’IA, citant l’invasion de l’Irak en 2003 comme un conflit basé sur des renseignements erronés. Mais il a ajouté que l’IA pourrait aggraver ces erreurs en raison de l’ampleur des données analysées par la technologie.
Il existe également une série de questions éthiques soulevées par la guerre avec l’IA, principalement autour de la responsabilité, ce que Husain a dit que la Convention de Genève et les lois sur le conflit armé exigent déjà que les États respectent. Avec l’IA brouillant la ligne entre décision machine et décision humaine, il a déclaré que la communauté internationale doit s’assurer que la responsabilité humaine est attribuée à toutes les actions sur le champ de bataille.
« Les lois sur le conflit armé nous obligent à blâmer la personne », a déclaré Husain. « La personne doit être responsable, peu importe le niveau d’automatisation utilisé sur le champ de bataille. »
Rejoignez-nous au sommet Fortune Workplace Innovation le 19-20 mai 2026 à Atlanta. La prochaine ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'attaque de Trump contre l'Iran et la nouvelle génération de guerres d'IA signifient que des bombes peuvent tomber plus vite que la vitesse de la pensée
L’IA est entrée dans la salle de guerre, et selon les experts, elle n’en sortira pas de sitôt.
Vidéo recommandée
Malgré le fait que le président Donald Trump ait demandé aux agences fédérales et aux contractants militaires de cesser leurs activités avec Anthropic, l’armée américaine aurait utilisé le modèle d’IA de l’entreprise, Claude, dans son attaque contre l’Iran, selon The Wall Street Journal.
Aujourd’hui, certains experts expriment des inquiétudes quant à l’utilisation de l’IA dans les opérations militaires. « La machine d’IA fait des recommandations sur ce qu’il faut cibler, ce qui est en réalité beaucoup plus rapide, à certains égards, que la vitesse de la pensée », a déclaré le Dr Craig Jones, auteur de The War Lawyers: U.S., Israel and the Spaces of Targeting, qui examine le rôle des juristes militaires dans la guerre moderne, à The Guardian.
Dans une interview avec Fortune, Jones, enseignant à l’Université de Newcastle sur la guerre et le conflit, a expliqué que l’IA a considérablement accéléré la « chaîne de destruction », réduisant le temps entre l’identification initiale de la cible et la destruction finale. Il a indiqué que les frappes américaines et israéliennes contre l’Iran, qui ont entraîné la mort de l’ayatollah Ali Khamenei, n’auraient peut-être pas eu lieu sans l’IA.
« Cela aurait été impossible, ou presque impossible, à faire de cette manière », a déclaré Jones à Fortune. « La rapidité avec laquelle cela a été réalisé, ainsi que l’ampleur et le volume des frappes, je pense qu’ils sont rendus possibles par l’IA. »
Le Pentagone a fait appel à des entreprises d’IA pour accélérer et améliorer la planification de la guerre, en concluant un partenariat avec Anthropic en 2024, qui s’est effondré la semaine dernière en raison de désaccords sur l’utilisation du modèle d’IA de l’entreprise, Claude. Mais OpenAI a rapidement conclu un accord avec le Pentagone, et xAI d’Elon Musk a signé un accord pour utiliser le modèle d’IA de l’entreprise, Grok, dans des systèmes classifiés. L’armée américaine utilise également le logiciel de la société de data-mining Palantir pour des insights basés sur l’IA en vue de la prise de décision.
L’IA sur le champ de bataille
Jones a indiqué que l’US Air Force utilise depuis des années la « vitesse de la pensée » comme référence pour le rythme de la prise de décision. Il a expliqué que le délai entre la collecte de renseignements, comme la reconnaissance aérienne, et l’exécution d’une mission de bombardement pouvait atteindre jusqu’à six mois pendant la Seconde Guerre mondiale et la guerre du Vietnam. L’IA a considérablement réduit ce délai.
Le rôle clé des outils d’IA dans la salle de guerre est d’analyser rapidement d’énormes quantités de données. « Nous parlons de téraoctets, de téraoctets, de téraoctets de données », a déclaré Jones, « tout, depuis des images aériennes, du renseignement humain, du renseignement internet, du suivi des téléphones mobiles, tout et n’importe quoi. »
Le Dr Amir Husain, co-auteur de Hyperwar: Conflict and Competition in the AI Century, a déclaré que l’IA est utilisée pour compresser le cadre décisionnel militaire américain, connu sous le nom de boucle OODA — un acronyme pour observer, orienter, décider et agir. Il a indiqué que l’IA joue déjà un rôle important dans l’observation, ou dans l’interprétation des données satellitaires et électroniques, la prise de décision tactique, et la phase « agir », notamment à travers des drones autonomes qui doivent fonctionner sans guidance humaine lorsque les signaux sont brouillés. Certains de ces drones sont en fait des copies des drones autonomes Shahed de l’Iran.
L’IA est également apparue sur d’autres champs de bataille. Israël aurait utilisé l’IA pour identifier des cibles du Hamas lors de la guerre Israël-Hamas. Et des drones autonomes sont en première ligne dans la guerre Russie-Ukraine, la Russie et l’Ukraine employant tous deux une certaine forme de technologie autonome.
Multiplication des risques
Cependant, Jones a souligné plusieurs préoccupations concernant la guerre assistée par l’IA. « Le problème lorsque vous ajoutez de l’IA, c’est que vous multipliez, à mon avis, par des ordres de grandeur, le degré d’erreur », a-t-il déclaré.
Pour être sûr, Jones a précisé que l’erreur humaine existe avec ou sans technologie d’IA, citant l’invasion de l’Irak en 2003 comme un conflit basé sur des renseignements erronés. Mais il a ajouté que l’IA pourrait aggraver ces erreurs en raison de l’ampleur des données analysées par la technologie.
Il existe également une série de questions éthiques soulevées par la guerre avec l’IA, principalement autour de la responsabilité, ce que Husain a dit que la Convention de Genève et les lois sur le conflit armé exigent déjà que les États respectent. Avec l’IA brouillant la ligne entre décision machine et décision humaine, il a déclaré que la communauté internationale doit s’assurer que la responsabilité humaine est attribuée à toutes les actions sur le champ de bataille.
« Les lois sur le conflit armé nous obligent à blâmer la personne », a déclaré Husain. « La personne doit être responsable, peu importe le niveau d’automatisation utilisé sur le champ de bataille. »
Rejoignez-nous au sommet Fortune Workplace Innovation le 19-20 mai 2026 à Atlanta. La prochaine ère de l’innovation en milieu de travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.