في مجال تخزين Web3، قضيت وقتًا طويلاً في التجربة، وأكبر ملاحظة هي أن المشاريع بشكل عام تعاني من نقاط ضعف. بعض المشاريع تركز فقط على طبقة التخزين، ولديها فهم محدود لسيناريوهات التطبيق؛ والبعض الآخر يبالغ في الترويج، لكن التنفيذ الفعلي بعيد المنال. نادرًا ما نجد من يربط جميع المراحل بشكل متكامل.



التحركات التي قامت بها Walrus في بداية عام 2026 غيرت هذا الوضع. خاصة التعاون العميق مع io.net، الذي أذهلني — حيث قاموا بربط التخزين والحوسبة بشكل حقيقي معًا.

كان تدريب نماذج الذكاء الاصطناعي سابقًا أمرًا مزعجًا. حيث يتم وضع مجموعة البيانات على منصة لامركزية، لكن تدريب النموذج يتطلب نقل البيانات إلى مجموعة GPU مركزية، مما يستهلك الوقت ويعرض خصوصية البيانات للخطر. الآن الوضع مختلف. من خلال منصة BYOM (نموذج مدمج)، يمكن للمستخدمين حفظ نماذج AI المخصصة مباشرة في Walrus، ثم استدعاء مجموعة GPU الموزعة من io.net للتدريب، دون الحاجة إلى خروج البيانات من طبقة التخزين.

قام أحد أصدقائي العاملين في مجال توليد الصور باستخدام AI بإجراء اختبار عملي مؤخرًا. وضع مجموعة بيانات فنية بحجم 5GB في Walrus، واستخدم موارد GPU من io.net لضبط النموذج، وكانت النتائج مذهلة — حيث كانت تكلفة التدريب أقل بنسبة 60% من استخدام AWS، ومع آلية الحوسبة الخصوصية المدمجة في Walrus، أصبحت أمان البيانات مضمونًا، وزادت كفاءة التدريب بنسبة 30%.

هذا الحل المتكامل بين التخزين والحوسبة نادر جدًا في مجال Web3. وانضمام Zark Lab عزز بشكل أكبر قدرات طبقة الذكاء الاصطناعي، ويستحق قوة هذا التعاون في عام 2026 مراقبة مستمرة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت