Децентрализация AI тренировки: от теории к практике

Святой Грааль Crypto AI: передовые исследования децентрализованного обучения

В полной цепочке создания ценности AI обучение моделей является этапом с наибольшим потреблением ресурсов и наивысшим техническим порогом, который напрямую определяет пределы возможностей моделей и фактическую эффективность их применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует непрерывных крупных вычислительных ресурсов, сложных процессов обработки данных и мощной поддержки алгоритмов оптимизации, представляя собой настоящую "тяжелую промышленность" в создании AI-систем. С точки зрения архитектурных парадигм, методы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основным предметом обсуждения в этой статье.

Святой Грааль Crypto AI: передовые исследования децентрализованного обучения

Централизованное обучение является наиболее распространенным традиционным методом, который выполняется единственным учреждением в локальном высокопроизводительном кластере, охватывающим весь процесс обучения, от оборудования, программного обеспечения нижнего уровня, системы управления кластером до всех компонентов обучающего фрейма, которые координируются единой контрольной системой. Эта архитектура глубокой координации обеспечивает максимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения масштабных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но одновременно сталкиваясь с проблемами монополизации данных, барьеров для ресурсов, потребления энергии и рисков единой точки.

Распределённое обучение является основным способом обучения крупных моделей в настоящее время, его суть заключается в разбиении задачи обучения модели на части, которые распределяются на несколько машин для совместного выполнения, чтобы преодолеть узкие места в вычислениях и хранении данных на одной машине. Несмотря на то, что физически он обладает характеристиками "Децентрализации", в целом он по-прежнему контролируется и координируется централизованной организацией, часто работает в среде высокоскоростной локальной сети, используя технологии высокоскоростной межсоединительной шины NVLink, при этом главный узел координирует выполнение подзадач. Основные методы включают:

  • Параллельные данные: каждый узел обучает различные параметры данных, которые совместно используют, необходимо сопоставить веса модели
  • Модельное параллелизм: развертывание различных частей модели на разных узлах для достижения высокой масштабируемости
  • Параллельная обработка: поэтапное последовательное выполнение, повышение пропускной способности
  • Тензорное параллелизм: детальная сегментация матричных вычислений, повышение параллельной гранулярности

Распределенное обучение — это комбинация "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет сотрудничеством нескольких сотрудников "офисов" для выполнения задач. В настоящее время практически все основные крупные модели (GPT-4, Gemini, LLaMA и другие ) обучаются таким образом.

Крипто ИИ святой Грааль: Децентрализация обучения на переднем крае

Децентрализация тренировки представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевая характеристика заключается в том, что: несколько недоверяющих узлов ( могут быть домашними компьютерами, облачными GPU или периферийными устройствами ), которые совместно выполняют задачи по обучению без центрального координатора, обычно через протоколы, управляющие распределением задач и сотрудничеством, и с помощью криптостимулов для обеспечения честности вклада. Основные проблемы, с которыми сталкивается эта модель, включают:

  • Гетерогенность устройств и сложность разделения: высокая трудность координации гетерогенных устройств, низкая эффективность разделения задач
  • Боттлнек эффективности связи: нестабильная сетевая связь, заметный боттлнек синхронизации градиентов
  • Отсутствие надежного выполнения: отсутствие надежной среды выполнения, трудно проверить, участвуют ли узлы на самом деле в вычислениях.
  • Недостаток единой координации: отсутствие центрального диспетчера, сложные механизмы распределения задач и отката при сбоях

Децентрализация тренировок может быть понята как: группа глобальных волонтёров, которые совместно вносят вычислительную мощность для тренировки модели, но "действительно осуществимая масштабная децентрализация тренировок" по-прежнему является системным инженерным вызовом, затрагивающим множество аспектов, таких как системная архитектура, коммуникационные протоколы, криптографическая безопасность, экономические механизмы, валидация моделей и т. д., но возможность "совместного эффекта + стимуляции честности + правильности результатов" всё ещё находится на стадии ранних прототипов.

Федеративное обучение как переходная форма между распределенными и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности, таких как медицина, финансы (. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными кооперативными возможностями, а также преимуществами по децентрализованному обучению с разбросанными данными, но по-прежнему зависит от доверенной координирующей стороны и не обладает полностью открытыми и антикоррупционными характеристиками. Это можно рассматривать как "контролируемую Децентрализацию" в условиях соблюдения конфиденциальности, которая относительно мягкая в задачах обучения, структуре доверия и механизмах связи, что делает ее более подходящей для переходной архитектуры развертывания в промышленности.

Децентрализация тренировки: границы, возможности и реальные пути

С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях из-за сложной структуры задач, крайне высоких требований к ресурсам или большой сложности сотрудничества, она естественно не подходит для эффективного выполнения на гетерогенных, децентрализованных узлах. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи, связанные с конфиденциальностью данных и строгими ограничениями суверенитета ), такие как медицина, финансы и конфиденциальные данные (, ограничены юридическими и этическими нормами, что не позволяет их открыто делиться; а задачи, для которых отсутствуют стимулы для сотрудничества ), такие как закрытые модели предприятий или внутреннее прототипирование (, лишены внешней мотивации для участия. Эти границы совместно составляют реальные ограничения текущего Децентрализованного обучения.

Но это не означает, что децентрализация тренировки является ложной теорией. На самом деле, в задачах с легкой структурой, которые легко параллелизуются и могут быть мотивированы, децентрализованная тренировка демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения для выравнивания поведения ), такие как RLHF, DPO (, задачи по сбору и аннотации данных, обучение небольших базовых моделей с контролем ресурсов, а также сценарии совместного обучения с участием периферийных устройств. Эти задачи, как правило, обладают высокой параллельностью, низкой связностью и толерантностью к гетерогенным вычислительным мощностям, что делает их очень подходящими для совместной тренировки через P2P сети, протокол Swarm, распределенные оптимизаторы и т.д.

![Крипто ИИ святой грааль: Децентрализация обучения на переднем крае исследований])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(

Децентрализация тренировки классических проектов

В настоящее время в области децентрализованного обучения и федеративного обучения представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности инженерной реализации, Prime Intellect, Nous Research и Pluralis.ai предложили много оригинальных исследований в проектировании системной архитектуры и алгоритмов, представляя текущие передовые направления теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть предварительный инженерный прогресс. В этой статье будут последовательно проанализированы ключевые технологии и инженерные архитектуры, стоящие за этими пятью проектами, а также дополнительно обсуждаются их различия и взаимодополняющие отношения в децентрализованной системе обучения ИИ.

) Prime Intellect: проверяемые траектории обучения в системе совместного обучения

Prime Intellect стремится создать сеть для обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать заслуженные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL, TOPLOC и SHARDCAST.

01、Структура протокола Prime Intellect и ценность ключевых модулей

![Святой Грааль Crypto AI: Передовые исследования в области Децентрализации обучения]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(

)# 02, Подробное объяснение ключевых механизмов обучения Prime Intellect

#PRIME-RL: Архитектура задач декомпозированного асинхронного обучения с подкреплением

PRIME-RL — это фреймворк для моделирования задач и выполнения, разработанный Prime Intellect для Децентрализация тренировочных сценариев, специально созданный для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно декомпозируя процессы обучения, вывода и загрузки весов, что позволяет каждому тренировочному узлу независимо выполнять циклы задач локально и координироваться через стандартизированные интерфейсы с механизмами валидации и агрегации. По сравнению с традиционными процессами обучения с учителем, PRIME-RL лучше подходит для реализации эластичного обучения в средах без центрального управления, снижая сложность системы и закладывая основу для поддержки параллельных многозадачных процессов и эволюции стратегий.

![Священный Грааль Crypto AI: Передовые исследования децентрализованного обучения]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(

#TOPLOC:Легковесный механизм верификации поведения тренировки

TOPLOC)Доверенное Наблюдение и Проверка Политики-Локальности( является основным механизмом, предложенным Prime Intellect, для проверки обучаемости, используемым для определения, действительно ли узел завершил эффективное обучение стратегии на основе данных наблюдений. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторного вычисления всей модели, а завершает верификацию легковесной структуры путем анализа локальной согласованности траекторий между "последовательностью наблюдений ↔ обновлением стратегии". Впервые он преобразует траектории поведения в процессе обучения в проверяемые объекты, что является ключевым новшеством для достижения распределения наград за обучение без доверия, предоставляя осуществимый путь для создания可审计,可激励的 Децентрализация合作培训网络.

![Крипто ИИ святой Грааль: Децентрализация тренировки на переднем крае исследований])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(

#SHARDCAST: Асинхронная агрегация весов и протокол распространения

SHARDCAST — это протокол распространения и агрегирования весов, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронностью, ограниченной пропускной способностью и изменяющимся состоянием узлов. Он сочетает в себе механизм gossipping и локальные синхронизационные стратегии, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, обеспечивая прогрессивную сходимость весов и эволюцию нескольких версий. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и отказоустойчивость децентрализованного обучения, что является основой для построения стабильного консенсуса по весам и непрерывной итерации обучения.

![Священный Грааль Crypto AI: передовые исследования Децентрализации обучения])https://img-cdn.gateio.im/webp-social/moments-f86b109da66a0a4c9239221650a4a0a8.webp(

#OpenDiLoCo:Разреженная асинхронная коммуникационная рамка

OpenDiLoCo является независимой реализацией и открытым исходным кодом фреймворка оптимизации связи, разработанного командой Prime Intellect на основе идеи DiLoCo, предложенной DeepMind, и спроектирован для решения таких проблем, как ограниченная пропускная способность, гетерогенность устройств и нестабильность узлов, часто встречающихся в децентрализованном обучении. Его архитектура основана на параллельной обработке данных, через создание разреженных топологических структур, таких как Ring, Expander, Small-World, что позволяет избежать высоких затрат на связь из-за глобальной синхронизации, и для совместного обучения модели достаточно полагаться только на локальных соседей. Совместно с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и устройствам на краю сети стабильно участвовать в задачах обучения, значительно увеличивая доступность глобального кооперативного обучения и являясь одной из ключевых коммуникационных инфраструктур для построения децентрализованной обучающей сети.

#PCCL:Библиотека совместной связи

PCCL)Prime Collective Communication Library( является легковесной библиотекой связи, разработанной Prime Intellect для децентрализованной обучающей среды AI, направленной на решение проблем адаптации традиционных библиотек связи), таких как NCCL, Gloo(, в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, являясь основным компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Он значительно увеличивает устойчивость сети к пропускной способности и совместимость устройств, открывая "последнюю милю" коммуникационной инфраструктуры для построения действительно открытой, бездоверительной сети совместного обучения.

)# 03, Сеть стимулирования и ролевое подразделение Prime Intellect

Prime Intellect построил тренировочную сеть без разрешений, которая может быть проверена и имеет экономические стимулы, позволяя любому участвовать в задачах и получать вознаграждение на основе реального вклада. Протокол работает на основе трех основных ролей:

  • Инициатор задачи: определение обучающей среды, начальной модели, функции вознаграждения и стандартов валидации
  • Узел обучения: выполнение локального обучения, подача обновлений весов и отслеживание траектории
  • Узлы проверки: использование механизма TOPLOC для проверки достоверности обучающего поведения и участия в расчете вознаграждений и агрегации стратегий

Основные процессы протокола включают в себя публикацию задач, обучение узлов, верификацию траекторий, агрегацию весов ###SHARDCAST( и распределение вознаграждений, формируя круг вокруг "реального тренировочного поведения".

PRIME-3.4%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
ser_ngmivip
· 07-24 06:35
Перезапустить web2, да?
Посмотреть ОригиналОтветить0
CoinBasedThinkingvip
· 07-22 13:38
Новички Web3 действительно понимают ИИ
Посмотреть ОригиналОтветить0
RugDocScientistvip
· 07-21 10:28
Ох, от четырех видов тренировок у меня голова идет кругом.
Посмотреть ОригиналОтветить0
BlockchainWorkervip
· 07-21 10:21
Написание статьи такое глубокое
Посмотреть ОригиналОтветить0
ProveMyZKvip
· 07-21 10:19
Как же эта ресурсная трата, бедняга, на что ты способен?
Посмотреть ОригиналОтветить0
WenMoonvip
· 07-21 10:16
Вычислительная мощность все еще недостаточно высокая, разве нет?
Посмотреть ОригиналОтветить0
  • Закрепить