Всі розуміють болючі точки тренування великих моделей — дані часто починаються з 10 ТБ, і кожне оновлення вимагає повторного завантаження, що при такому обсязі дуже витратно за часом і зберіганням.
Walrus останнім часом зробив оптимізацію для цієї проблеми. Основним покращенням є функція інкрементального оновлення на рівні сегментів — завантажуйте лише змінені блоки даних, інше залишається без змін. Звучить просто, але ефект дійсно помітний. Є реальний випадок: ітерація тренувального набору даних обсягом 10 ТБ за допомогою цієї системи зменшила час з кількох годин до 15 хвилин. Що стосується витрат, зниження також значне — зберігання можна зекономити до 70%.
Для малих і середніх AI-компаній ця схема особливо корисна. Вона економить час і значно знижує операційні витрати, підвищуючи ефективність оновлення даних і зменшуючи навантаження на зберігання. Здається, це хороший вибір.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
21 лайків
Нагородити
21
6
Репост
Поділіться
Прокоментувати
0/400
IronHeadMiner
· 01-16 18:04
Кілька годин до 15 хвилин? Це досить суттєва різниця... Якщо дійсно так швидко, потрібно спробувати.
Переглянути оригіналвідповісти на0
MetaverseLandlady
· 01-14 17:51
Зменшення з кількох годин до 15 хвилин? Якщо це правда, то середні та малі виробники можуть радіти — витрати на зберігання безпосередньо зменшилися на сімдесят відсотків, і ця економія просто неймовірна.
Переглянути оригіналвідповісти на0
ChainSherlockGirl
· 01-14 17:49
Зачекайте, за 15 хвилин обробити 10ТБ ітерацій? Ці дані досить вражаючі, потрібно розібратися з рухом коштів у ланцюжку, щоб бути впевненим
Переглянути оригіналвідповісти на0
AirdropHuntress
· 01-14 17:47
Зачекайте, дані показують, що 15 хвилин достатньо для обробки 10ТБ ітерацій? Ці цифри потрібно ретельно перевірити, я розумію принцип інкрементального оновлення, але потрібно перевірити на практичних прикладах.
Переглянути оригіналвідповісти на0
AirdropHermit
· 01-14 17:43
Зменшення з кількох годин до 15 хвилин? Це підвищення ефективності трохи неймовірне... Але те, що зекономлено 70% на витратах на зберігання, справді мене вразило, і кошельки малих і середніх компаній нарешті зможуть зітхнути з полегшенням
Переглянути оригіналвідповісти на0
DAOTruant
· 01-14 17:34
Зачекайте, з кількох годин одразу до 15 хвилин? Це занадто перебільшено... Це правда чи ні, чи хтось реально користувався Walrus?
Всі розуміють болючі точки тренування великих моделей — дані часто починаються з 10 ТБ, і кожне оновлення вимагає повторного завантаження, що при такому обсязі дуже витратно за часом і зберіганням.
Walrus останнім часом зробив оптимізацію для цієї проблеми. Основним покращенням є функція інкрементального оновлення на рівні сегментів — завантажуйте лише змінені блоки даних, інше залишається без змін. Звучить просто, але ефект дійсно помітний. Є реальний випадок: ітерація тренувального набору даних обсягом 10 ТБ за допомогою цієї системи зменшила час з кількох годин до 15 хвилин. Що стосується витрат, зниження також значне — зберігання можна зекономити до 70%.
Для малих і середніх AI-компаній ця схема особливо корисна. Вона економить час і значно знижує операційні витрати, підвищуючи ефективність оновлення даних і зменшуючи навантаження на зберігання. Здається, це хороший вибір.