在Web3存储這個賽道折騰了這麼久,最大的感受就是項目普遍存在短板。有的只專注存儲層,對應用場景一知半解;有的吹得天花亂墜,實際落地卻遙遙無期。真正把各個環節打通的寥寥無幾。



Walrus在2026年初的一系列動作改變了這個局面。特別是與io.net的深度合作,讓我眼前一亮——他們把存儲和算力真正連接在了一起。

以前訓練AI模型是個麻煩事。數據集放在去中心化平台上,模型訓練卻要轉移到中心化的GPU集群,數據來回遷移既費時間,還存在隱私泄露的風險。現在情況不同了。通過BYOM(自帶模型)平台,用戶可以直接在Walrus裡保存自定義的AI模型,然後調用io.net的分佈式GPU集群進行訓練,整個過程不需要數據離開存儲層。

我的一位從事AI圖像生成的朋友最近做了個實測。他把5GB的藝術風格數據集存進Walrus,用io.net的GPU資源微調模型,結果很驚人——訓練成本比用AWS便宜了60%,而且由於Walrus內置的隱私計算機制,數據安全有了保障,訓練效率反而提了30%。

這種存儲加算力的一體化方案在Web3領域還真是少見。而Zark Lab的加入進一步強化了AI智能層的能力,2026年這個組合拳的威力值得持續觀察。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言