Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
#AnthropicSuesUSDefenseDepartment
Anthropic Gugat Departemen Pertahanan AS Mengapa Gugatan Ini Sangat Penting
Apa yang Terjadi & Siapa yang Terlibat
Perusahaan kecerdasan buatan Anthropic, yang dikenal karena membangun model AI Claude, telah mengajukan gugatan besar terhadap Departemen Pertahanan Amerika Serikat dan lembaga pemerintah terkait, termasuk di bawah pemerintahan Trump, setelah terjadi sengketa mengenai bagaimana teknologi mereka harus digunakan. Tindakan hukum ini diumumkan pada hari Senin, 9 Maret 2026 dan menandai salah satu konflik hukum paling terkenal antara perusahaan AI swasta dan pemerintah AS hingga saat ini.
Gugatan ini menantang keputusan terbaru Departemen Pertahanan untuk menandai Anthropic sebagai “risiko rantai pasokan” sebuah label langka yang hampir tidak pernah digunakan terhadap perusahaan Amerika secara efektif memblacklist Anthropic dari kontrak pertahanan dan menekan kontraktor untuk memutus hubungan dengan perusahaan tersebut. Anthropic berargumen bahwa penandaan ini tidak sah, belum pernah terjadi sebelumnya, dan bersifat balasan, serta melanggar hak konstitusionalnya, termasuk perlindungan kebebasan berbicara dan proses hukum yang adil.
Mengapa Anthropic Dilabeli Risiko & Sengketa Kontrak
Konflik ini berasal dari kegagalan dalam negosiasi antara Anthropic dan Departemen Pertahanan mengenai bagaimana Pentagon dapat menggunakan sistem AI Claude-nya. Anthropic bersikeras mempertahankan perlindungan etika yang ketat, yang berarti menolak penggunaan AI-nya untuk tujuan militer tertentu, termasuk pengawasan massal domestik terhadap warga Amerika atau pengembangan sistem senjata otonom sepenuhnya tanpa pengawasan manusia. Pimpinan Anthropic memandang penggunaan tersebut sebagai berbahaya dan di luar batas pendekatan AI yang berfokus pada keselamatan mereka.
Sebagai tanggapan, pejabat pertahanan, yang dipimpin secara terbuka oleh Menteri Pete Hegseth, menuntut agar Anthropic mengizinkan penggunaan teknologi mereka secara lebih luas sesuai hukum, dan mengancam tindakan hukuman jika perusahaan tidak mematuhi. Ketika Anthropic tetap teguh, Pentagon memindahkan label risiko rantai pasokan berdasarkan aturan keamanan nasional AS, sebuah penandaan yang biasanya diperuntukkan bagi entitas yang terkait dengan musuh asing, bukan perusahaan teknologi berbasis AS. Penandaan ini berarti Pentagon dan kontraktornya tidak lagi dapat menggunakan atau bermitra dengan Anthropic untuk pekerjaan pertahanan.
Presiden Donald Trump secara terbuka mendukung tindakan tersebut, memerintahkan lembaga federal untuk menghentikan penggunaan Claude dalam waktu enam bulan, yang memperkuat dampak dari keputusan Pentagon. Pendukung pendekatan militer berargumen bahwa pemerintah harus mempertahankan fleksibilitas dalam penggunaan AI untuk pertahanan nasional, sementara para kritikus berpendapat bahwa langkah ini melampaui kewenangan hukum dan secara tidak adil menargetkan perusahaan berdasarkan kebijakan keselamatan internalnya.
Argumen Hukum dalam Gugatan
Gugatan Anthropic diajukan di pengadilan federal di California dan di pengadilan banding federal di Washington, D.C., dan mengajukan beberapa klaim hukum secara luas:
• Balasan Tidak Sah: Anthropic mengklaim tindakan pemerintah setara dengan balasan terhadap sikap etis mereka terhadap penggunaan AI, secara efektif menghukum perusahaan karena menolak melemahkan perlindungannya.
• Pelanggaran Hak Konstitusional: Gugatan ini berargumen bahwa penandaan Departemen Pertahanan melanggar hak First Amendment (kebebasan berbicara) dan perlindungan proses hukum yang adil, karena pemerintah menggunakan label hukuman yang tidak diotorisasi oleh otoritas undang-undang yang jelas.
• Ancaman terhadap Bisnis & Inovasi: Dengan memutus kontrak federal dan mendorong lembaga serta kontraktor lain untuk menghentikan kerja sama dengan Anthropic, penandaan ini mengancam reputasi, pendapatan, dan pertumbuhan masa depan perusahaan. Anthropic menyatakan bahwa mereka bisa mengalami kerugian finansial yang signifikan karena mitra federal mempertimbangkan kembali kontrak-kontrak mereka.
Strategi hukum ini menantang tidak hanya tindakan spesifik tersebut tetapi juga gagasan yang lebih luas tentang bagaimana kekuasaan pemerintah dapat digunakan terhadap perusahaan swasta karena perbedaan kebijakan. Pemimpin Anthropic dan banyak pakar AI berpendapat bahwa mengizinkan pemerintah untuk memblacklist perusahaan AI AS berdasarkan prinsip etika dapat menetapkan preseden berbahaya untuk inovasi dan otonomi perusahaan di masa depan.
Reaksi Industri & Hukum
Gugatan ini menarik perhatian besar dari komunitas teknologi dan riset AI. Beberapa eksekutif dan pakar dari perusahaan AI besar lainnya, termasuk orang-orang yang terkait dengan perusahaan seperti Google DeepMind dan OpenAI, telah mengajukan atau menyatakan dukungan melalui dokumen hukum yang mendukung tantangan Anthropic, memperingatkan bahwa penandaan risiko rantai pasokan Pentagon dapat membatasi inovasi dan menetapkan preseden yang mengkhawatirkan untuk industri.
Analis hukum juga menyoroti bahwa ini adalah pertama kalinya perusahaan AI berbasis AS dikenai label keamanan nasional semacam ini, menimbulkan pertanyaan penting tentang otoritas pemerintah, kebijakan pertahanan nasional, dan hak perusahaan. Perdebatan sedang berlangsung apakah Departemen Pertahanan melebihi kewenangannya berdasarkan undang-undang dan apakah pengadilan federal akan setuju untuk memblokir penandaan tersebut atau membatalkannya sama sekali.
Implikasi Lebih Luas & Apa yang Dipertaruhkan
Hasil dari gugatan ini dapat memiliki implikasi yang luas tentang bagaimana perusahaan AI bernegosiasi kontrak dengan pemerintah di masa depan, seberapa banyak kendali yang mereka miliki atas penggunaan teknologi mereka, dan bagaimana kepentingan keamanan nasional berinteraksi dengan kebebasan sipil terutama terkait pengawasan massal dan pengembangan senjata otonom.
Kasus Anthropic juga menyoroti perubahan industri yang lebih besar: pengembang AI semakin menghadapi pertanyaan etika dan regulasi tentang bagaimana teknologi mereka digunakan, bukan hanya bagaimana mereka berfungsi. Perusahaan yang membangun sistem AI yang kuat didorong untuk mempertimbangkan dampak moral dan sosial dari pekerjaan mereka, yang kini berpotongan dengan kebijakan pertahanan nasional secara belum pernah terjadi sebelumnya.
Sementara itu, Anthropic terus mengejar upaya hukum, meminta agar label risiko rantai pasokan dan arahan terkait dibatalkan atau dihentikan, sambil menegaskan bahwa AI Claude-nya tetap berkomitmen terhadap penggunaan yang etis dan bertanggung jawab dalam konteks sipil dan komersial. Gugatan ini masih berlangsung, dan pengadilan akan memainkan peran utama dalam menentukan sejauh mana otoritas pemerintah dapat diperluas di era kecerdasan buatan tingkat lanjut.