Baru saja melihat sesuatu yang menarik – ada kerangka pasar baru bernama The Grid yang mengambil pendekatan sepenuhnya berbeda terhadap permainan inferensi.
Alih-alih menggunakan setup API model seperti biasanya, mereka membangun seluruh arsitektur mereka berdasarkan inferensi berbasis tugas. Pikirkanlah: daripada hanya memanggil endpoint API, Anda benar-benar menyusun pekerjaan di sekitar tugas komputasi tertentu.
Blueprint teknis mereka baru saja dirilis, dan jujur saja, filosofi desainnya cukup menyegarkan. Ini adalah salah satu momen "kenapa tidak ada yang terpikirkan ini sebelumnya". Seluruh sistem dirancang untuk menangani permintaan inferensi sebagai tugas-tugas terpisah, bukan sekadar panggilan API generik.
Bagi siapa saja yang membangun di ranah komputasi terdesentralisasi, ini mungkin patut dicoba. Struktur yang berorientasi pada tugas ini mungkin benar-benar dapat menyelesaikan beberapa hambatan efisiensi yang selama ini kita hadapi dalam setup penyajian model tradisional.
Penasaran melihat bagaimana ini berjalan dalam praktik setelah orang-orang mulai melakukan stress-testing pada infrastrukturnya.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
18 Suka
Hadiah
18
7
Posting ulang
Bagikan
Komentar
0/400
SwapWhisperer
· 47menit yang lalu
Efisiensi peningkatan ada harapan.
Lihat AsliBalas0
SpeakWithHatOn
· 8jam yang lalu
Terlalu hebat, harus kerja.
Lihat AsliBalas0
0xSherlock
· 18jam yang lalu
Layak untuk dieksplorasi dan dipraktikkan
Lihat AsliBalas0
FortuneTeller42
· 18jam yang lalu
Grid computing benar-benar memiliki prospek yang cerah
Baru saja melihat sesuatu yang menarik – ada kerangka pasar baru bernama The Grid yang mengambil pendekatan sepenuhnya berbeda terhadap permainan inferensi.
Alih-alih menggunakan setup API model seperti biasanya, mereka membangun seluruh arsitektur mereka berdasarkan inferensi berbasis tugas. Pikirkanlah: daripada hanya memanggil endpoint API, Anda benar-benar menyusun pekerjaan di sekitar tugas komputasi tertentu.
Blueprint teknis mereka baru saja dirilis, dan jujur saja, filosofi desainnya cukup menyegarkan. Ini adalah salah satu momen "kenapa tidak ada yang terpikirkan ini sebelumnya". Seluruh sistem dirancang untuk menangani permintaan inferensi sebagai tugas-tugas terpisah, bukan sekadar panggilan API generik.
Bagi siapa saja yang membangun di ranah komputasi terdesentralisasi, ini mungkin patut dicoba. Struktur yang berorientasi pada tugas ini mungkin benar-benar dapat menyelesaikan beberapa hambatan efisiensi yang selama ini kita hadapi dalam setup penyajian model tradisional.
Penasaran melihat bagaimana ini berjalan dalam praktik setelah orang-orang mulai melakukan stress-testing pada infrastrukturnya.