Semua orang tahu titik sakit dari iterasi pelatihan model besar—data seringkali mulai dari 10TB, dan setiap pembaruan harus diunggah ulang, sehingga menghabiskan banyak waktu dan biaya penyimpanan.
Walrus baru-baru ini melakukan optimasi terhadap masalah ini. Perbaikan inti adalah fitur pembaruan inkremental tingkat potongan—hanya mengunggah blok data yang berubah, sementara yang lain tetap tidak berubah. Kedengarannya sederhana, tetapi hasilnya memang nyata. Ada sebuah kasus nyata, iterasi dataset pelatihan sebesar 10TB, setelah menggunakan solusi ini, waktu yang dibutuhkan langsung dipotong dari beberapa jam menjadi 15 menit. Dari segi biaya, penghematan juga cukup besar, pengeluaran penyimpanan bisa dikurangi hingga 70%.
Bagi perusahaan AI kecil dan menengah, solusi ini sangat praktis. Menghemat waktu sekaligus secara signifikan menurunkan biaya operasional, efisiensi iterasi data meningkat, dan beban penyimpanan juga berkurang. Tampaknya ini adalah pilihan yang bagus.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
21 Suka
Hadiah
21
6
Posting ulang
Bagikan
Komentar
0/400
IronHeadMiner
· 01-16 18:04
Beberapa jam hingga 15 menit? Jaraknya cukup jauh... Kalau memang sekuat itu, harus dicoba nih
Lihat AsliBalas0
MetaverseLandlady
· 01-14 17:51
Berapa jam menjadi 15 menit? Jika ini benar, para pelaku usaha kecil dan menengah pasti akan tersenyum diam-diam, biaya penyimpanan langsung dipangkas tujuh puluh persen, perhitungan ini benar-benar luar biasa
Lihat AsliBalas0
ChainSherlockGirl
· 01-14 17:49
Tunggu, menyelesaikan 10TB iterasi dalam 15 menit? Data ini cukup gila, harus mengupas aliran dompet di chain agar merasa tenang
Lihat AsliBalas0
AirdropHuntress
· 01-14 17:47
Tunggu sebentar, data menunjukkan 10TB iterasi dalam 15 menit? Angka ini perlu diperiksa dengan cermat, saya mengerti prinsip pembaruan inkremental, tetapi kasus nyata harus diverifikasi.
Lihat AsliBalas0
AirdropHermit
· 01-14 17:43
Berapa jam menjadi 15 menit? Peningkatan efisiensi ini agak luar biasa... Tapi penghematan 70% biaya penyimpanan benar-benar membuat saya terkesan, dompet perusahaan kecil dan menengah akhirnya bisa bernafas lega
Lihat AsliBalas0
DAOTruant
· 01-14 17:34
Tunggu dulu, dari beberapa jam langsung menjadi 15 menit? Ini terlalu berlebihan... Apakah ini benar-benar? Ada yang benar-benar sudah menggunakan Walrus?
Semua orang tahu titik sakit dari iterasi pelatihan model besar—data seringkali mulai dari 10TB, dan setiap pembaruan harus diunggah ulang, sehingga menghabiskan banyak waktu dan biaya penyimpanan.
Walrus baru-baru ini melakukan optimasi terhadap masalah ini. Perbaikan inti adalah fitur pembaruan inkremental tingkat potongan—hanya mengunggah blok data yang berubah, sementara yang lain tetap tidak berubah. Kedengarannya sederhana, tetapi hasilnya memang nyata. Ada sebuah kasus nyata, iterasi dataset pelatihan sebesar 10TB, setelah menggunakan solusi ini, waktu yang dibutuhkan langsung dipotong dari beberapa jam menjadi 15 menit. Dari segi biaya, penghematan juga cukup besar, pengeluaran penyimpanan bisa dikurangi hingga 70%.
Bagi perusahaan AI kecil dan menengah, solusi ini sangat praktis. Menghemat waktu sekaligus secara signifikan menurunkan biaya operasional, efisiensi iterasi data meningkat, dan beban penyimpanan juga berkurang. Tampaknya ini adalah pilihan yang bagus.