Відчуття понеділка зовсім інші, коли відлагоджуєш розподілене ML. Отже, питання — чи дійсно моделі машинного навчання вже використовують всю пропускну здатність мережі Bittensor?
Схоже, деякі команди не сидять склавши руки. Команда inference_labs запропонувала цікавий workflow: береш свій ONNX-файл моделі, проводиш квантизацію для прискорення інференсу, потім розбиваєш на частини через dsperse для розподіленої обробки. Фішка в тому, що поверх цього вони додають zk-snarks для підтверджуваної обробки.
Досить розумно, якщо подумати — вирішують проблему вузького місця по пропускній здатності, одночасно зберігаючи докази легковаговими. Хтось ще експериментує з шардингом моделей у децентралізованих мережах?
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
15 лайків
Нагородити
15
8
Репост
Поділіться
Прокоментувати
0/400
WinterWarmthCat
· 12-10 18:49
Розподілений - це щось справді цікаве
Переглянути оригіналвідповісти на0
AirdropDreamBreaker
· 12-08 20:15
Відчуття від кількісного аналізу, продовжуємо знижувати
Відчуття понеділка зовсім інші, коли відлагоджуєш розподілене ML. Отже, питання — чи дійсно моделі машинного навчання вже використовують всю пропускну здатність мережі Bittensor?
Схоже, деякі команди не сидять склавши руки. Команда inference_labs запропонувала цікавий workflow: береш свій ONNX-файл моделі, проводиш квантизацію для прискорення інференсу, потім розбиваєш на частини через dsperse для розподіленої обробки. Фішка в тому, що поверх цього вони додають zk-snarks для підтверджуваної обробки.
Досить розумно, якщо подумати — вирішують проблему вузького місця по пропускній здатності, одночасно зберігаючи докази легковаговими. Хтось ще експериментує з шардингом моделей у децентралізованих мережах?