Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La responsable de la robotique chez OpenAI a démissionné en raison d'un accord avec le Pentagone - ForkLog : cryptomonnaies, IA, singularité, avenir
En réponse à l’accord controversé d’OpenAI avec le Département de la Défense des États-Unis, Caitlin Kalinowski a quitté son poste de responsable du matériel de l’entreprise.
Kalinowski a travaillé chez Apple sur le matériel des ordinateurs Mac, puis a rejoint Meta, devenant l’un des ingénieurs clés du département Reality Labs. En 2024, elle a rejoint OpenAI en tant que responsable de la robotique et du matériel grand public.
Dans sa déclaration, elle a souligné que sa décision était « basée sur des principes, pas sur des personnes », exprimant « un profond respect » pour le PDG d’OpenAI, Sam Altman, et l’équipe de la startup.
Un représentant d’OpenAI a souligné que l’accord avec le Pentagone « ouvre la voie à une utilisation responsable de l’IA à des fins de sécurité nationale, tout en définissant clairement les lignes rouges : pas de surveillance interne et pas d’armes autonomes ».
L’accord entre OpenAI et le Pentagone a été conclu fin février, peu après que les négociations entre Anthropic et le ministère de la Défense aient échoué.
Rapidement, Altman a reconnu que la transaction était « précipitée » et qu’elle ne donnait pas une bonne image du startup.
La situation a affecté la popularité de ChatGPT et Claude. Le nombre de suppressions du premier chatbot a augmenté de 295 %, tandis que le second a atteint le sommet du classement de l’App Store.
En juillet 2025, le Département de la Défense des États-Unis a signé des contrats d’un montant pouvant atteindre 200 millions de dollars avec Anthropic, Google, OpenAI et xAI pour le développement de solutions d’IA dans le domaine de la sécurité.
En janvier 2026, le WSJ a rapporté un risque de rupture de l’accord avec Anthropic. Les désaccords portaient sur la politique éthique stricte de la startup. Les règles interdisent l’utilisation du modèle Claude pour la surveillance de masse et les opérations létales autonomes.
En février 2026, l’armée américaine a utilisé Claude dans une opération pour capturer le président vénézuélien Nicolás Maduro, ce qui a intensifié le conflit.
Le PDG de la société, Dario Amodei, a rencontré le ministre de la Défense, Pét Hegset, pour discuter de la situation. Le ministère a lancé un ultimatum : Anthropic doit accepter les conditions gouvernementales avant le 27 février.
Dario Amodei a déclaré qu’il préférerait ne pas collaborer avec le Pentagone plutôt que d’utiliser ses technologies, ce qui pourrait « saper, plutôt que protéger, les valeurs démocratiques ».
Fin février, le président américain Donald Trump a ordonné à toutes les agences fédérales d’abandonner complètement l’utilisation des technologies d’Anthropic dans un délai de six mois.
Il a qualifié la startup de « société hors de contrôle » dirigée par des personnes qui « n’ont aucune idée de ce qu’est le monde réel ».
Le Pentagone a officiellement reconnu Anthropic comme « un risque pour la chaîne d’approvisionnement » — ce qui met en danger les affaires de l’entreprise avec d’autres sous-traitants gouvernementaux. Microsoft et Google ont déclaré qu’ils continueraient à fournir des produits de la société.
La justice en ligne de mire
Amodei a déclaré que son entreprise contesterait en justice la décision du Département de la Défense de considérer la société comme un risque pour la chaîne d’approvisionnement. Selon lui, cette décision est « juridiquement infondée ».
Il a indiqué que la décision du Pentagone ne concerne pas la majorité des clients de Claude.
Selon Amodei, l’entreprise a mené des négociations productives avec le ministère de la Défense pendant plusieurs jours, mais celles-ci ont échoué après une fuite d’un mémo interne. Dans ce document, le PDG qualifiait la relation d’OpenAI avec le ministère de « plus une démonstration de sécurité qu’une véritable protection contre les risques ».
Amodei s’est excusé pour la fuite, affirmant que l’entreprise n’avait pas l’intention de divulguer le contenu du mémo et n’avait donné aucune instruction à quiconque pour le faire.
Le chef de la startup a souligné que le document avait été rédigé en quelques heures après une série d’annonces concernant la suppression d’Anthropic des systèmes fédéraux. Il a présenté ses excuses pour le ton employé, qualifiant cette journée de « difficile pour l’entreprise ».
Amodei a ajouté que le mémo était une « évaluation dépassée » et ne reflétait pas une « opinion attentive et équilibrée ». Selon lui, la priorité de l’entreprise est de garantir aux soldats américains et aux experts en sécurité nationale l’accès à des outils essentiels lors des opérations militaires en cours.
Anthropic continuera à fournir ses modèles au ministère de la Défense « à coût nominal » aussi longtemps que nécessaire.
L’ancien conseiller du président américain pour l’intelligence artificielle, Dean Ball, a déclaré qu’il serait difficile pour l’entreprise de contester la décision du Pentagone.
« Les tribunaux sont assez réticents à remettre en question les décisions du gouvernement concernant ce qui relève de la sécurité nationale et ce qui ne l’est pas. Il faut franchir une barrière très haute. Mais ce n’est pas impossible », a-t-il souligné.
Rappelons qu’en février, Anthropic a assoupli sa politique de sécurité clé, expliquant que c’était nécessaire pour rester compétitive.