Futures
Des centaines de contrats réglés en USDT ou en BTC
TradFi
Or
Tradez des actifs traditionnels mondiaux avec des USDT en un seul endroit
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez à des événements pour gagner de généreuses récompenses
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez des actifs on-chain et profitez des récompenses en airdrop !
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Acheter à bas prix et vendre à prix élevé pour tirer profit des fluctuations de prix
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Gestion de patrimoine VIP
La gestion qui fait grandir votre richesse
Gestion privée de patrimoine
Gestion personnalisée des actifs pour accroître vos actifs numériques
Fonds Quant
Une équipe de gestion d'actifs de premier plan vous aide à réaliser des bénéfices en toute simplicité
Staking
Stakez des cryptos pour gagner avec les produits PoS.
Levier Smart
New
Pas de liquidation forcée avant l'échéance, des gains à effet de levier en toute sérénité
Mint de GUSD
Utilisez des USDT/USDC pour minter des GUSD et obtenir des rendements de niveau trésorerie
✨Pentagon Officially Designates Anthropic as a Supply Chain Risk: Dario Amodei Announces He Will Go to Court and Emphasizes He Will Continue National Security Support
Le Département de la Défense des États-Unis (Pentagone) a officiellement classé la startup d'intelligence artificielle Anthropic comme un « risque pour la chaîne d'approvisionnement ». Cette décision met fin à un différend de plusieurs mois concernant les restrictions de sécurité que l'entreprise a imposées à son modèle Claude AI. Dans une déclaration écrite datée du 5 mars 2026, le département a déclaré : « La direction d'Anthropic a été formellement informée que l'entreprise et ses produits sont évalués comme un risque pour la chaîne d'approvisionnement ; la décision est effective immédiatement. » Il s'agit d'un outil historiquement utilisé contre des entreprises étrangères (en particulier celles ayant des liens avec la Chine) qui opèrent contre les États-Unis, et c'est la première fois qu'il est appliqué à une entreprise américaine. La justification du Pentagone est qu'Anthropic empêche l'utilisation de Claude AI « à toute fin légitime ». Les responsables du Département de la Défense ont déclaré : « Le principe fondamental est que l'armée doit pouvoir utiliser les technologies pour toutes les fins légitimes. Un fournisseur ne sera pas autorisé à interférer avec la chaîne de commandement et à mettre en danger les combattants. »
✨Le désaccord provient des deux lignes rouges critiques d'Anthropic : l'entreprise rejette l'utilisation de Claude dans la surveillance domestique de masse des citoyens américains et dans les systèmes d'armes sans pilote entièrement autonomes. Le PDG Dario Amodei avait précédemment communiqué explicitement ces restrictions au secrétaire à la Défense Pete Hegseth. Le Pentagone soutient que de telles restrictions mettent en danger la sécurité nationale.
✨Le PDG d'Anthropic, Dario Amodei, a confirmé la décision du Pentagone. Dans la déclaration officielle de l'entreprise datée du 5 mars 2026, Amodei a déclaré qu'ils avaient reçu la lettre du Département de la Guerre (anciennement le Pentagone) le 4 mars et ont trouvé la décision « non fondée légalement ». Amodei a déclaré : « Nous n'avons pas d'autre choix que de contester cette action en justice », et a confirmé qu'ils déposeront un recours juridique, comme indiqué précédemment. Cependant, Amodei a également souligné qu'ils continueront à soutenir les opérations de sécurité nationale : « Pour éviter de perturber nos combattants, nous continuerons à fournir nos modèles à coût nominal et avec un support d'ingénierie aussi longtemps que cela sera permis. » L'entreprise a rappelé qu'elle travaille déjà activement avec le Pentagone dans des domaines tels que l'analyse de renseignement, la modélisation, la planification opérationnelle et les opérations cybernétiques. Amodei s'est également excusé pour le ton du mémo interne divulgué il y a six jours, déclarant que le texte est obsolète et ne reflète pas sa réflexion attentive. La décision intervient après que l'administration Trump a ordonné aux agences fédérales de cesser d'utiliser les produits d'Anthropic. Le processus, initié par la déclaration du secrétaire à la Défense Pete Hegseth sur X, pourrait maintenant obliger tous les contractants militaires à couper leurs liens commerciaux avec Anthropic. Les experts affirment que cette mesure pourrait faire basculer l'équilibre des pouvoirs entre la Silicon Valley et le gouvernement et freiner l'innovation. Anthropic soutient que l'étiquetage du risque pour la chaîne d'approvisionnement devrait être la « méthode la moins restrictive » selon le 10 USC 3252, en déclarant que la décision est limitée dans son champ d'application et n'affectera que les contrats directs. L'entreprise reste engagée à continuer ses contributions à la sécurité nationale parallèlement aux procédures judiciaires. Ce développement met une fois de plus en évidence la tension entre les politiques de sécurité de l'IA et les besoins de défense ; le processus semble prêt à se poursuivre dans les tribunaux dans les prochains jours.
Le différend provient d’un contrat d’environ $200 millions qui a été signé par Anthropic pour utiliser son modèle d’IA Claude dans des systèmes classifiés pour l’armée américaine.
Anthropic a fixé deux « lignes rouges » clés :
- Que l’IA ne soit pas utilisée pour la surveillance de masse des citoyens américains.
- Qu’elle ne soit pas utilisée pour des **systèmes d’armes entièrement autonomes** (armes qui prennent des décisions létales sans supervision humaine)
Cependant, le Pentagone a exigé une utilisation illimitée de l’IA pour « tous les usages légitimes » et n’a pas accepté ces restrictions. Le secrétaire à la Défense Pete Hegseth a forcé l’entreprise à se conformer avant une échéance fixée à vendredi soir (26 février 2026).
Lorsque aucun accord n’a été trouvé :
- Le président Trump a ordonné à toutes les agences fédérales de **stopper immédiatement** la technologie d’Anthropic (en donnant au Pentagone une période de transition de 6 mois).
- Hegseth a déclaré qu’Anthropic représentait un « risque dans la chaîne d’approvisionnement pour la sécurité nationale »—une sanction généralement utilisée contre des menaces étrangères ; elle interdit également aux contractants militaires de faire affaire avec l’entreprise.
Anthropic a qualifié cette décision d’« invalide sur le plan juridique et créant un précédent » et a annoncé qu’elle porterait l’affaire devant la justice. Le PDG Dario Amodei a insisté sur le fait qu’il ne reviendrait pas sur sa position.
Finalement, le Pentagone a signé un nouvel accord avec OpenAI acceptant des restrictions similaires. Cet événement a marqué un tournant majeur quant à savoir qui doit fixer les limites à l’utilisation militaire de l’IA—les entreprises ou le gouvernement ?
En résumé : ce qui a commencé comme une discussion sur les préoccupations de sécurité s’est transformé en pression politique et en sanctions. Le conflit entre éthique de l’IA et sécurité nationale se poursuit.
#TrumpordersfederalbanonAnthropicAI