Je viens de remarquer une chose plutôt intéressante. Au cours des cinq dernières années, l'industrie de l'IA a créé une narration puissante concernant la menace existante de l'AGI. Ce n'est pas parce qu'il existe des preuves solides, mais parce que cela a une utilité pratique. Cela a permis d'obtenir des financements d'investisseurs, d'attirer l'attention des gouvernements, et de créer un sentiment d'urgence dans toute l'industrie. Mais le problème, c'est qu'une fois que cette narration est sortie dans le monde, elle n'est plus sous le contrôle de ses créateurs.



Elle revient à la charge, et parfois elle tire sur vous. Regardez ce qui s'est passé lors de la première semaine d'avril : à 03h40 le 10 avril, à San Francisco, un homme de 20 ans nommé Daniel Moreno-Gama a lancé une bombe incendiaire contre la porte de l'appartement de Sam Altman. Le feu a pris à la porte, puis il a disparu. Environ une heure plus tard, la même personne est apparue près du bureau d'OpenAI et a menacé de mettre le feu à nouveau, avant d'être arrêtée.

Deux jours plus tard, le 12 avril, à 01h40, une Honda stationnée devant une autre maison d'Altman sur une colline, un passager a tendu la main par la fenêtre et a tiré sur la maison. La police a arrêté deux suspects : Amanda Tom et Muhammad Tariq Hussen. Tous deux sont inculpés de tirs par négligence, pour deux attaques en moins de 48 heures.

Le personnage de la première attaque, Daniel Moreno-Gama, était un pessimiste concernant l'IA avant l'attaque. Il a écrit un article sur les réseaux sociaux, utilisant une image de Dune pour argumenter que l'échec de l'alignement de l'IA représente un risque pour la survie, et critiquant les leaders technologiques qui risquent le destin de l'humanité pour poursuivre un « post-humanisme ».

Son point est que ce que dit OpenAI et d'autres leaders de l'IA n'est pas une foi sincère, mais une stratégie. Créer une narration sur la menace existentielle leur permet de dire simultanément : « Nous sommes les plus dangereux en technologie. Nous sommes les plus responsables. Donc, le capital doit affluer vers nous. »

Mais une fois que ces mots sortent, ils ne restent pas dans la salle de réunion des investisseurs ou dans le bureau militaire. Certaines personnes prennent cette narration au sérieux, et dans certains cas, elle devient une directive à suivre de manière littérale.

Regardez ce qui s'est passé depuis la fin de l'année dernière : en décembre 2024, le PDG d'UnitedHealthcare, Brian Thompson, a été tué par balle. Le suspect, Luigi Mangione, diplômé d'une université de renom, a laissé un message critiquant l'industrie de l'assurance santé. L'affaire a suscité une réaction étrange sur les réseaux sociaux : beaucoup ont exprimé leur sympathie pour le suspect, certains l'ont même idolâtré comme un symbole de résistance.

Ensuite, la porte a été poussée, la sécurité des dirigeants est passée de « privilège » à « nécessité de survie ». Selon Fortune, le taux d'attaques physiques contre les dirigeants de grandes entreprises a augmenté de 225 % depuis 2023. Dans les entreprises du S&P 500, 33,8 % ont déclaré des dépenses de sécurité pour les dirigeants en 2025, contre 23,3 % en 2020.

Le coût moyen pour la sécurité des entreprises s'élève à 130 000 dollars, en hausse de 20 % par rapport à l'année précédente, doublant en cinq ans.

Mais l'industrie de l'IA est différente. Ce n'est pas parce que le risque de sécurité augmente, mais parce que ses créateurs croient que cette technologie pourrait détruire la civilisation. Ces chiffres ont du poids.

Les dépenses de sécurité pour les PDG des 10 plus grandes entreprises technologiques en 2024 ont dépassé 45 millions de dollars. Mark Zuckerberg a dépensé plus de 27 millions de dollars, dépassant le total des dépenses des PDG d'Apple, Google et quatre autres entreprises. Sundar Pichai de Google a dépensé 8,27 millions de dollars, en hausse de 22 % par rapport à l'année précédente. Huang Jen-hsun de NVIDIA a dépensé 3,5 millions de dollars en 2025, en hausse de 59 %. Ces chiffres montrent une tendance à la hausse rapide.

Une enquête de Pew Research en 2025 indique que seulement 16 % des 28 333 personnes interrogées dans le monde sont enthousiasmées par le développement de l'IA, tandis que 34 % sont préoccupées. Ce qui est encore plus intéressant, c'est que les personnes ayant un niveau d'éducation et de revenus plus élevé sont plus inquiètes de l'IA hors de contrôle. Ceux qui comprennent le mieux ont la plus grande peur.

Je viens de voir une nouvelle : Ron Gibson, membre du conseil municipal d'Indianapolis, a été tiré 13 fois dans la nuit. Son fils de 8 ans s'est réveillé au son des coups de feu. Sur la porte, une note manuscrite disait : « Interdiction de construire un centre de données ». Le FBI a déjà enquêté.

Selon des chercheurs de l'Université George Washington, les centres de données deviennent une cible d'attaques par des groupes anti-technologie. Cette peur n'est pas un secret dans l'industrie, mais elle n'est pas exprimée ouvertement.

Revenons à 2016 : Sam Altman a construit un bunker souterrain dans le Wyoming, d'une superficie de 1200 mètres carrés, avec trois étages. Il y a 500 kg d'or, 5000 comprimés d'iode, 5 tonnes de nourriture lyophilisée, et 100 000 cartouches. La même année, OpenAI venait d'être fondée. Il a déclaré sur scène que l'IA était la plus grande opportunité pour l'humanité, mais en même temps, il accumulait suffisamment d'armes pour une milice. C'est une mise en jeu à double face : il mise ouvertement sur le succès de l'IA, tout en se préparant secrètement à une perte de contrôle.

Après la première attaque, Altman a publié un blog. Il a publié une photo avec des enfants, disant qu'il espérait que cette image empêcherait la prochaine personne de lancer une bombe incendiaire chez lui. Il a reconnu la position morale des opposants, appelant à un débat public « moins direct et plus comparatif ».

Mais ce qui est le plus intéressant, c'est qu'il a écrit : « J'ai évalué le pouvoir de la narration dans les médias, et le discours est sous-estimé. » Il savait que cette narration avait un pouvoir plus grand qu'il ne l'imaginait. Il savait comment elle pouvait revenir le hanter.

Une semaine avant la première attaque, The New Yorker a publié une interview approfondie d'Altman par Ronan Farrow et Andrew Marantz, avec plus de 100 témoins. La principale critique se résume à deux mots : « peu crédible ». L'article cite un ancien membre du conseil d'OpenAI qui qualifie Altman de « personne à la personnalité antisociale » et « non liée par la vérité ». Plusieurs collègues décrivent qu'il a changé à plusieurs reprises sa position sur la sécurité de l'IA.

Dans son post, Altman admet qu'il a tendance à éviter les conflits. Il a créé une narration publique selon laquelle « l'IA est une menace existentielle » pour mobiliser des fonds et négocier la réglementation. Mais en fin de compte, cet outil lui a échappé.

Le 27 février, OpenAI a signé un contrat avec le ministère de la Défense américain pour permettre à l'armée d'utiliser ChatGPT sur des réseaux classifiés. Le même jour, Altman a exprimé son soutien à la position d'Anthropic, qui limite l'usage militaire de l'IA.

Une mobilisation contre QuitGPT aurait rassemblé plus de 1,5 million de participants. Le 21 mars, environ 200 manifestants ont défilé à San Francisco, traversant les bureaux d'Anthropic, d'OpenAI et de xAI, demandant aux trois PDG de suspendre le développement d'IA avancée. À Londres, la plus grande marche anti-IA jamais organisée a eu lieu.

Voici ce qu'on appelle le boomerang de la narration. La forteresse d'Altman dans le Wyoming, et la sécurité qu'il a engagée, ont été conçues pour faire face à deux types de risques différents : l'un venant de l'extérieur, l'autre de ce qu'il construit lui-même. Il prend ces deux risques très au sérieux en privé, mais publiquement, il n'en reconnaît qu'un seul.

La narration qu'il a créée a été diffusée, puis est revenue frapper à sa porte.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler