Понедельничные вайбы ощущаются иначе, когда отлаживаешь распределённое машинное обучение. Вот в чём вопрос — действительно ли модели машинного обучения уже упираются в пропускную способность сети Bittensor?
Похоже, некоторые команды не ждут у моря погоды. Команда inference_labs представила интересный рабочий процесс: берёшь свой файл модели ONNX, выполняешь квантизацию для ускорения инференса, затем разбиваешь модель на части с помощью dsperse для распределённой обработки. Фишка в том, что они добавляют zk-snarks для верифицируемых вычислений.
Довольно хитро, если подумать — решают проблему узких мест по пропускной способности и при этом делают доказательства лёгкими. Кто-нибудь ещё экспериментирует с шардингом моделей на децентрализованных сетях?
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
8
Репост
Поделиться
комментарий
0/400
WinterWarmthCat
· 12-10 18:49
Распределённые технологии действительно что-то значат
Понедельничные вайбы ощущаются иначе, когда отлаживаешь распределённое машинное обучение. Вот в чём вопрос — действительно ли модели машинного обучения уже упираются в пропускную способность сети Bittensor?
Похоже, некоторые команды не ждут у моря погоды. Команда inference_labs представила интересный рабочий процесс: берёшь свой файл модели ONNX, выполняешь квантизацию для ускорения инференса, затем разбиваешь модель на части с помощью dsperse для распределённой обработки. Фишка в том, что они добавляют zk-snarks для верифицируемых вычислений.
Довольно хитро, если подумать — решают проблему узких мест по пропускной способности и при этом делают доказательства лёгкими. Кто-нибудь ещё экспериментирует с шардингом моделей на децентрализованных сетях?