Подготовка данных для обучения ИИ в прошлом году вызывала наибольше всего споров не из-за нехватки материалов, а из-за невозможности доказать источник — как только модель выходит в сеть, её начинают критиковать за "нарушение авторских прав данных". Недавно экосистема Walrus представила новый подход через модуль Seal: при загрузке файла его сначала разбивают на сотни фрагментов с помощью стираемых кодов, затем через пороговую криптографию права доступа записываются непосредственно в объекты блокчейна Sui. Сервис вывода может получить доступ только к авторизованным фрагментам в изолированной среде, исходный файл полностью недоступен. Таким образом, источники обучающих данных моделей получают юридическое обоснование, сообщество может провести верификацию, и отрицать ответственность невозможно.
По сравнению с другими решениями — ведущие системы хранения предлагают только хэши контента, другие платформы используют публичное постоянное хранилище как "непреложный факт" — подход Seal объединяет три изначально противоречивых требования: защиту конфиденциальности, контролируемое удаление и защиту от модификации. Минусы очевидны: стоимость ротации ключей велика. Если нужно одновременно обновить ключи для 200 ГБ данных, придётся сначала разблокировать старый ключ, затем авторизовать новые фрагменты — процесс намного сложнее стандартных решений и может доставить разработчикам проблемы, особенно при срочных проектах. Однако в сообществе уже циркулируют готовые скрипты-шаблоны, и интеграция в CI/CD конвейер в будущем должна оптимизировать процесс.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
7
Репост
Поделиться
комментарий
0/400
FlashLoanLarry
· 01-09 11:54
Этот модуль Seal действительно мощный, использование кода исправления ошибок для разбиения сегментов полностью исключает возможность обвинения источника данных.
Посмотреть ОригиналОтветить0
BloodInStreets
· 01-09 11:52
Эй, наконец-то кто-то взялся привести этот бардак в порядок, предыдущие планы действительно были смешными
Посмотреть ОригиналОтветить0
SlowLearnerWang
· 01-09 11:36
Ай-яй, снова что-то, на что я давно должен был обратить внимание, но понял только сейчас... Метод разбиения данных с помощью кодов исправления ошибок действительно классный, наконец-то кто-то ясно и четко объяснил, что "я не нарушаю авторские права".
Посмотреть ОригиналОтветить0
WhaleShadow
· 01-09 11:34
Теперь юристы действительно не смогут найти оправдания для перекладывания ответственности, но смена ключей должна быть выполнена до дедлайна, иначе могут погибнуть.
Посмотреть ОригиналОтветить0
OldLeekConfession
· 01-09 11:34
Вот это действительно цепочка хранения данных, наконец-то кто-то разобрался с вопросом происхождения данных.
Посмотреть ОригиналОтветить0
MetaverseVagabond
· 01-09 11:27
Ну что ж, наконец-то кто-то разобрался с этим бардаком, комбинация из кодов исправления ошибок и пороговых ключей действительно мощная
Подготовка данных для обучения ИИ в прошлом году вызывала наибольше всего споров не из-за нехватки материалов, а из-за невозможности доказать источник — как только модель выходит в сеть, её начинают критиковать за "нарушение авторских прав данных". Недавно экосистема Walrus представила новый подход через модуль Seal: при загрузке файла его сначала разбивают на сотни фрагментов с помощью стираемых кодов, затем через пороговую криптографию права доступа записываются непосредственно в объекты блокчейна Sui. Сервис вывода может получить доступ только к авторизованным фрагментам в изолированной среде, исходный файл полностью недоступен. Таким образом, источники обучающих данных моделей получают юридическое обоснование, сообщество может провести верификацию, и отрицать ответственность невозможно.
По сравнению с другими решениями — ведущие системы хранения предлагают только хэши контента, другие платформы используют публичное постоянное хранилище как "непреложный факт" — подход Seal объединяет три изначально противоречивых требования: защиту конфиденциальности, контролируемое удаление и защиту от модификации.
Минусы очевидны: стоимость ротации ключей велика. Если нужно одновременно обновить ключи для 200 ГБ данных, придётся сначала разблокировать старый ключ, затем авторизовать новые фрагменты — процесс намного сложнее стандартных решений и может доставить разработчикам проблемы, особенно при срочных проектах. Однако в сообществе уже циркулируют готовые скрипты-шаблоны, и интеграция в CI/CD конвейер в будущем должна оптимизировать процесс.