Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Di balik ledakan DeepSeek V4: Silicon Valley membangun "dinding", China membangun "jalan"
null
Tulisan | Alter
Pada pagi hari tanggal 24 April, DeepSeek V4 yang terlambat datang akhirnya menunjukkan wujud aslinya.
Hari itu, DeepSeek-V4-Pro langsung menduduki puncak daftar model sumber terbuka Hugging Face, dengan dua inovasi “berkelas nuklir” yang menjadi perbincangan hangat:
Pertama, konteks super panjang jutaan token, tetapi cache KV hanya 10% dari V3.2, dipuji oleh insinyur Amazon sebagai solusi untuk kekurangan HBM;
Kedua, adaptasi terhadap chip domestik, selama proses pengembangan bekerja sama erat dengan Huawei, dan segera mengadaptasi chip domestik seperti Ascend dan Cambrian.
Kebetulan, model sumber terbuka Hugging Face yang menempati posisi kedua adalah Kimi K2.6 yang dirilis dan dibuka sumbernya pada larut malam 20 April.
Jika di seberang Samudra Pasifik, “tabrakan” dua model parameter triliunan ini tak terhindarkan karena valuasi dan peta bisnis saling menyerang, di dalam negeri justru menampilkan pemandangan yang sama sekali berbeda: tidak ada drama saling mengungkap kekurangan, tidak ada perang PR yang bergejolak, bahkan di tingkat teknologi dasar dilakukan “penggantian pertahanan”.
Di balik “tidak biasa” ini, tersembunyi perbedaan jalur teknologi AI antara China dan AS: Silicon Valley gila-gilaan membangun “tembok tinggi”, berusaha menjaga kepentingan yang sudah ada melalui sumber tertutup; sementara perusahaan model besar domestik memilih “membongkar tembok”, berjalan menuju evolusi kolaboratif di tanah sumber terbuka.
01 Silicon Valley Terjebak dalam “Permainan Kekuasaan”
Berbeda dengan jalur sumber terbuka yang berkembang pesat di dalam negeri, para pemimpin AI Silicon Valley seperti OpenAI, Anthropic, dan Google Gemini semuanya pendukung sumber tertutup.
Inovasi teknologi terbaru terkunci di pusat data masing-masing, menghadapi tekanan biaya komputasi dan harapan pasar modal, semangat “Silicon Valley” yang terkenal dengan keterbukaan dan kolaborasi perlahan memudar, dan para pemain tak terhindarkan terjebak dalam “permainan kekuasaan” zero-sum.
Dalam dua tahun terakhir, “perang diam-diam” dalam teknologi telah berkembang menjadi saling serang terbuka, dengan cara paling umum adalah saling “mengambil perhatian”: pada saat pesaing merilis produk baru di titik kunci, dengan cepat meluncurkan pembaruan besar untuk menahan volume suara lawan, menjadi operasi rutin Silicon Valley.
Pada Mei 2024, OpenAI dan Google pernah merilis produk AI baru secara bersamaan, satu menyatakan GPT-4o sebagai yang terdepan secara global, yang lain menyatakan keluarga Gemini mampu mencakup seluruh ekosistem dan jalur. Akhirnya, CEO kedua perusahaan tidak tahan lagi dan saling mengejek di media sosial.
Bukan hanya dalam “perang saling serang” dengan Google, pertarungan antara OpenAI dan Anthropic juga memanas: pada 16 April, Anthropic baru saja merilis model baru Claude Opus 4.7, dan dalam dua jam kemudian OpenAI mengumumkan pembaruan besar Codex, dengan slogan “Codex untuk (hampir) segala sesuatu)”. Orang yang jeli bisa melihat bahwa tabrakan waktu ini bukan kebetulan, melainkan “serangan mendadak” yang dirancang matang oleh OpenAI terhadap Anthropic.
Selain “pertempuran verbal” di arena opini, “mengungkap kekurangan” secara terbuka juga menjadi kebiasaan di Silicon Valley.
Pada 7 April, Anthropic mengumumkan secara terbuka bahwa pendapatan tahunan mereka mencapai 30 miliar dolar, berhasil melampaui OpenAI yang sebesar 25 miliar dolar.
Seminggu kemudian, Chief Revenue Officer OpenAI secara terbuka dalam surat internal kepada seluruh karyawan menyatakan bahwa klaim pendapatan tahunan 30 miliar dolar dari Anthropic sangat diragukan, karena mereka menggunakan metode “total”, termasuk komisi yang dibagikan ke penyedia layanan cloud seperti Amazon dan Google, yang seluruhnya dihitung sebagai pendapatan total mereka, sehingga pendapatan tahunan mereka diperkirakan lebih tinggi sekitar 8 miliar dolar.
Langkah mengungkap kekurangan lawan ini dalam surat internal tidak umum di industri teknologi, tujuannya hanyalah memberi sinyal kepada investor—mitos pertumbuhan Anthropic adalah bohong belaka.
Begitu permusuhan muncul, akan merembes ke setiap pengambilan keputusan.
Setelah Anthropic memutuskan untuk tidak menghapus klausul keamanan tertentu dari kontrak mereka dan berselisih dengan Pentagon, beberapa jam kemudian OpenAI secara terbuka mengumumkan telah menjalin kerja sama dengan Departemen Pertahanan AS.
Pada Super Bowl 2026, Anthropic mengeluarkan iklan besar yang berisi “Iklan sedang memasuki bidang AI, tetapi tidak akan memasuki Claude.” Bisa dikatakan ini sebagai “menantang langsung” OpenAI yang baru mulai menguji fitur iklan…
Mengapa “saudara sekelas” di masa lalu ini berbalik menjadi musuh bebuyutan?
Akar masalahnya terletak pada logika intrinsik model bisnis sumber tertutup: keberlangsungan hidup sumber tertutup bergantung pada pembangunan “parit pelindung”, dan syarat utama membangun parit adalah menghalangi penyebaran teknologi, memonopoli kekuatan produksi paling canggih. Ditambah lagi, ketidakcocokan jalur teknologi dan narasi produk yang berlawanan secara alami membentuk keseimbangan Nash: siapa yang terlebih dahulu “menyerah damai”, narasi merek mereka akan runtuh, dan akhirnya terperosok semakin dalam dalam perang internal.
02 Evolusi Kolaboratif di Blok Sumber Terbuka
Kembali ke dalam negeri, jalur cerita berjalan sangat berbeda.
Kembali ke lebih dari satu tahun lalu, kemunculan DeepSeek-R1 memberi rem pada perlombaan besar model besar, dan “enam anak kecil” utama yang masuk ke babak final. Berbeda dari Silicon Valley yang terbesar, DeepSeek tidak berperan sebagai “hiu” yang menelan semua ikan di kolam, melainkan seperti ikan lele yang mengaktifkan seluruh ekosistem model besar China, semua orang mulai mendukung sumber terbuka.
Contoh langsungnya adalah jejak pertumbuhan DeepSeek yang sangat selaras dengan “Bayangan Bulan” yang juga mulai dari 2023, keduanya adalah tim startup dengan jumlah sangat kecil namun kepadatan talenta sangat tinggi, dan keduanya adalah penganut teguh Hukum Scaling.
Pada Juli 2025, “Bayangan Bulan” merilis model sumber terbuka pertama di dunia dengan parameter triliunan, Kimi K2, dan secara terbuka menyatakan menggunakan arsitektur MLA dari DeepSeek. Untuk model besar, mimpi buruk terbesar dalam memproses teks super panjang adalah batas memori GPU, tetapi terobosan MLA adalah dengan cerdik mengurangi cache KV hingga lebih dari 93%.
Dengan standar industri yang dikembangkan DeepSeek, tim model besar di dalamnya tidak perlu mengulang dari awal, sehingga biaya inferensi dapat dikurangi secara cepat.
Cerita tidak berhenti di situ.
Melihat dokumen teknis DeepSeek V4, dijelaskan secara rinci arsitektur model, salah satu peningkatan penting adalah mengganti sebagian besar optimizer dari AdamW ke Muon, untuk mempercepat konvergensi dan meningkatkan stabilitas pelatihan.
Dalam dokumen teknis Kimi K2.6, juga disebutkan penggunaan optimizer Muon, yang dalam pelatihan dengan volume yang sama mampu meningkatkan efisiensi dua kali lipat.
Kedua model tersebut menyebutkan optimizer Muon, yang pertama kali diajukan oleh peneliti independen Keller Jordan di akhir 2024 dalam sebuah blog. Tim “Bayangan Bulan” yang juga mengalami masalah dengan AdamW, pada awal 2025 melakukan perbaikan penting secara engineering terhadap Muon, menambahkan kemampuan Weight Decay dan RMS control, dan menamainya MuonClip.
“Bayangan Bulan” di Kimi K2 pertama kali memverifikasi stabilitas optimizer Muon, dan berhasil mencapai “tanpa Spike Loss” selama pelatihan pra-latihan. DeepSeek juga menggunakan optimizer Muon yang telah terbukti saat melatih model besar V4.
Perlu ditegaskan bahwa evolusi kolaboratif model besar sumber terbuka tidak terjebak dalam homogenisasi, melainkan menuju jalan “berbeda namun harmonis”.
Misalnya, DeepSeek-V4 fokus pada penguatan kemampuan inti model dasar, memperkuat batas atas kinerja model sumber terbuka global, dan menyediakan fondasi yang sebanding dengan model tertutup; Kimi K2.6 mendalami implementasi Agent secara engineering, menyelesaikan masalah eksekusi jarak jauh yang mandiri, membuka jalur penting untuk model besar masuk ke skenario produksi nyata.
Dalam seluruh proses ini, tidak ada negosiasi bisnis yang berkepanjangan, tidak ada perang paten yang tegang. Di dalam ekosistem sumber terbuka, inovasi teknologi mengalir bebas seperti air, siapa yang melakukan dengan baik, akan digunakan oleh semua.
Mengambil manfaat dari ekosistem sumber terbuka, saling melengkapi dalam jalur teknologi. Perusahaan model besar China telah menunjukkan kepada dunia satu kemungkinan lain di luar Silicon Valley dengan tindakan nyata.
03 Amerika Membuat “Tembok”, China Membuat “Jalan”
Selain mengagumi evolusi kolaboratif sumber terbuka, kita harus menghadapi kenyataan bisnis.
Saat ini, pendapatan tahunan OpenAI dan Anthropic masing-masing telah mencapai lebih dari 10 miliar dolar, sementara perusahaan model besar domestik baru saja melewati ambang pendapatan tahunan 100 juta dolar.
Valuasi pasar sekunder OpenAI sekitar 880 miliar dolar, valuasi Anthropic telah melonjak ke sekitar 1 triliun dolar, dan valuasi putaran pendanaan baru Kimi dan DeepSeek masing-masing sebesar 18 miliar dolar dan 20 miliar dolar.
Ada yang berpendapat bahwa kapitalisasi pasar perusahaan model besar China terlalu rendah, dan ada juga yang berpendapat: “Apakah mungkin mengubah reputasi teknologi menjadi uang nyata, adalah ujian hidup mati yang dihadapi perusahaan China.” Dalam waktu singkat, diskusi tentang “nilai rasio” sumber terbuka menjadi sangat ramai.
Untuk melihat akhir cerita, mungkin bisa dimulai dari tahap kompetisi model besar:
Tahap pertama adalah “bersaing parameter dan benchmark”. Hingga akhir April 2026, tahap ini hampir berakhir, dan skor di daftar peringkat sudah tidak menunjukkan perbedaan substansial.
Tahap kedua adalah “bersaing efisiensi pelatihan, biaya inferensi, dan inovasi arsitektur”. Ini adalah tahap saat ini, juga hasil dari tekanan biaya komputasi yang semakin besar.
Tahap ketiga akan menjadi “bersaing sistem Agent, ekosistem, dan pengembang”. Ketika Token berubah dari trafik gratis menjadi “bahan bakar” untuk menjalankan tugas, kemakmuran ekosistem akan menentukan nasibnya.
Lalu, posisi ekosistem model besar sumber terbuka di dalam negeri seperti apa? Kami menemukan dua data perbandingan yang langsung terlihat.
Satu adalah biaya pelatihan.
Pada Agustus 2025, GPT-5 dirilis dengan biaya pelatihan lebih dari 500 juta dolar; sementara Kimi K2 Thinking pada waktu yang sama hanya sekitar 4,6 juta dolar; DeepSeek tidak mengumumkan biaya pelatihan seri V4, tetapi model V3 hanya menghabiskan 5,576 juta dolar… perusahaan model besar domestik hanya menggunakan kurang dari sepersepuluh sumber daya OpenAI, tetapi mampu melatih model setara.
Yang lain adalah volume panggilan.
Menuju 2026, data dari platform penggabungan multi-model OpenRouter menunjukkan: di bawah pengaruh produk Agent yang mewakili OpenClaw, konsumsi Token global menunjukkan pertumbuhan eksponensial, dan “tim mimpi” sumber terbuka China, dengan reputasi “mudah digunakan dan murah”, telah melampaui AS selama beberapa minggu berturut-turut.
Alasannya tidak sulit dijelaskan.
Ekosistem sumber terbuka China telah menjalankan “roda umpan balik positif”: perusahaan A membuka sumber teknologi dasar, perusahaan B mengadopsi dan melakukan optimisasi engineering, lalu hasil dan pengalaman yang dioptimalkan ini kembali memberi manfaat ke seluruh ekosistem. Jika evolusi model tertutup didasarkan pada pertumbuhan linier dari tumpukan kekuatan komputasi yang besar, maka jalur sumber terbuka akan membawa penyebaran inovasi teknologi secara eksponensial akibat tabrakan inovasi.
Menurut laporan Morgan Stanley, antara 2025-2030, konsumsi token inferensi AI di China akan mencapai tingkat pertumbuhan majemuk tahunan sekitar 330%, dari 10 triliun token di 2025 menjadi 3.9 kuadriliun token di 2030, dengan pertumbuhan 370 kali lipat.
Artinya, tahun 2026 masih berada di awal ledakan AI, dan dalam lima tahun ke depan masih ada ratusan kali lipat peluang pertumbuhan, jauh dari saatnya menyimpulkan secara definitif.
Kepercayaan diri terhadap peluang jangka panjang ini, di saat raksasa Silicon Valley berusaha keras membangun tembok, perusahaan model besar China memilih memperkuat jalan menuju AGI melalui kolaborasi.
04 Tulisan Penutup
Siapa yang akan tertawa terakhir dalam gelombang AI yang dahsyat ini? Jawabannya tidak hanya terkait model, tetapi juga pengendalian dan kemandirian kekuatan komputasi. Jika model diibaratkan sebagai “bom atom”, maka kekuatan komputasi domestik yang bebas dari blokade teknologi eksternal adalah “roket” yang mengantarkan bom atom ke langit.
Yang membanggakan, integrasi model dan kekuatan komputasi domestik semakin erat: dokumen teknis DeepSeek V4 mencantumkan Ascend NPU dan GPU Nvidia dalam daftar verifikasi hardware; “Bayangan Bulan” dalam makalah terbaru menempatkan inferensi model besar dan decoding di chip berbeda, membuka jalan bagi chip domestik untuk berpartisipasi secara besar-besaran dalam inferensi model.
Awal 2025, DeepSeek R1 memberi peluang bagi model besar domestik untuk tampil di panggung; hingga 2026, ekosistem model besar sumber terbuka China terus berkolaborasi dan menciptakan lebih banyak modal keras yang mendefinisikan aturan panggung.