Rincian Sengketa Pentagon-Anthropic:
Sengketa ini berasal dari kontrak senilai sekitar $200 juta yang ditandatangani Anthropic untuk menggunakan model AI Claude dalam sistem rahasia untuk militer AS.
Anthropic menetapkan dua "garis merah" utama:
- Bahwa AI tidak digunakan untuk pengawasan massal terhadap warga Amerika.
- Bahwa AI tidak digunakan untuk **sistem senjata otonom sepenuhnya** (senjata yang membuat keputusan mematikan tanpa pengawasan manusia)
Namun, Pentagon menuntut penggunaan AI tanpa batas untuk "semua tujuan yang sah" dan tidak menerima pembatasan ini. Menteri Pertahanan Pete Hegseth memaksa perusahaan untuk mematuhi batas waktu Jumat malam (26 Februari 2026).
Ketika tidak ada kesepakatan yang dicapai:
- Presiden Trump memerintahkan semua lembaga federal untuk **langsung menghentikan** teknologi Anthropic (memberikan Pentagon periode transisi selama 6 bulan).
- Hegseth menyatakan Anthropic sebagai "risiko rantai pasokan terhadap keamanan nasional"—sanksi yang biasanya digunakan terhadap ancaman asing; ini juga melarang kontraktor militer berbisnis dengan perusahaan tersebut.
Anthropic menyebut keputusan tersebut "tidak sah secara hukum dan menetapkan preseden" dan mengumumkan akan membawa masalah ini ke pengadilan. CEO Dario Amodei menegaskan bahwa dia tidak akan mundur dari posisinya.
Akhirnya, Pentagon menandatangani perjanjian baru dengan OpenAI yang menerima pembatasan serupa. Peristiwa ini menandai titik balik utama mengenai siapa yang harus menentukan batasan penggunaan AI untuk militer—perusahaan atau pemerintah?
Singkatnya: Apa yang dimulai sebagai diskusi tentang kekhawatiran keamanan berkembang menjadi tekanan politik dan sanksi. Konflik antara etika AI dan keamanan nasional terus berlanjut.
#TrumpordersfederalbanonAnthropicAI
Sengketa ini berasal dari kontrak senilai sekitar $200 juta yang ditandatangani Anthropic untuk menggunakan model AI Claude dalam sistem rahasia untuk militer AS.
Anthropic menetapkan dua "garis merah" utama:
- Bahwa AI tidak digunakan untuk pengawasan massal terhadap warga Amerika.
- Bahwa AI tidak digunakan untuk **sistem senjata otonom sepenuhnya** (senjata yang membuat keputusan mematikan tanpa pengawasan manusia)
Namun, Pentagon menuntut penggunaan AI tanpa batas untuk "semua tujuan yang sah" dan tidak menerima pembatasan ini. Menteri Pertahanan Pete Hegseth memaksa perusahaan untuk mematuhi batas waktu Jumat malam (26 Februari 2026).
Ketika tidak ada kesepakatan yang dicapai:
- Presiden Trump memerintahkan semua lembaga federal untuk **langsung menghentikan** teknologi Anthropic (memberikan Pentagon periode transisi selama 6 bulan).
- Hegseth menyatakan Anthropic sebagai "risiko rantai pasokan terhadap keamanan nasional"—sanksi yang biasanya digunakan terhadap ancaman asing; ini juga melarang kontraktor militer berbisnis dengan perusahaan tersebut.
Anthropic menyebut keputusan tersebut "tidak sah secara hukum dan menetapkan preseden" dan mengumumkan akan membawa masalah ini ke pengadilan. CEO Dario Amodei menegaskan bahwa dia tidak akan mundur dari posisinya.
Akhirnya, Pentagon menandatangani perjanjian baru dengan OpenAI yang menerima pembatasan serupa. Peristiwa ini menandai titik balik utama mengenai siapa yang harus menentukan batasan penggunaan AI untuk militer—perusahaan atau pemerintah?
Singkatnya: Apa yang dimulai sebagai diskusi tentang kekhawatiran keamanan berkembang menjadi tekanan politik dan sanksi. Konflik antara etika AI dan keamanan nasional terus berlanjut.
#TrumpordersfederalbanonAnthropicAI
































