تدريب بيانات الذكاء الاصطناعي العام الماضي لم يكن الخلاف الأكبر حول عدم القدرة على العثور على المواد، بل حول عدم إمكانية إثبات المصدر حتى عند الاستخدام — حيث يتم انتقاد النموذج فور إطلاقه بـ"انتهاك حقوق البيانات". تعتبر وحدة Seal التي أطلقتها منظومة Walrus مؤخرًا فكرة جديدة: عند رفع الملف، يتم تقسيمه باستخدام ترميز تصحيح الأخطاء إلى مئات من الأجزاء، ثم يتم كتابة صلاحية الوصول مباشرة في كائنات على سلسلة Sui باستخدام مفتاح حدّي، بحيث يمكن لخدمة الاستدلال الوصول فقط إلى الأجزاء المصرح بها في بيئة معزولة، ولا يمكن الوصول إلى الملف الأصلي على الإطلاق. بهذه الطريقة، يمكن لمصدر تدريب النموذج أن يثبت قانونيًا أصليته، ويمكن للمجتمع التحقق منه، مما يجعل من الصعب تحميل المسؤولية على طرف آخر.
مقارنة مع الحلول الأخرى — مثل منصة تخزين رئيسية تقدم فقط هاش المحتوى، أو منصة أخرى تعتمد على تخزين دائم علني "صفقة واحدة" — فإن طريقة Seal تجمع بين حماية الخصوصية، والتحكم في الحذف، ومنع التلاعب، وهي ثلاث متطلبات كانت تتعارض سابقًا.
العيوب واضحة أيضًا: تكلفة تبديل المفاتيح مرتفعة. إذا قررت استبدال مفتاح بيانات 200 جيجابايت مرة واحدة، فستحتاج أولاً إلى فك قفل المفتاح القديم ثم تفويض المفتاح الجديد، مما يجعل عملية التشغيل أكثر تعقيدًا من الحلول التقليدية، خاصة عند اقتراب موعد تسليم المشروع، مما قد يسبب صداعًا لفريق التطوير. ومع ذلك، فإن المجتمع لديه بالفعل نماذج سكربت جاهزة تتداول، ومن المتوقع أن يؤدي دمجها في عمليات CI/CD إلى تحسين كبير في المستقبل.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 20
أعجبني
20
7
إعادة النشر
مشاركة
تعليق
0/400
FlashLoanLarry
· 01-09 11:54
هذه الوحدة Seal فعلاً قوية، تقنية تقسيم البيانات باستخدام رموز التصحيح تجعل من المستحيل على مصدر البيانات أن يتهرب من المسؤولية.
شاهد النسخة الأصليةرد0
BloodInStreets
· 01-09 11:52
مرحبًا، أخيرًا قام شخص ما بتنظيم هذا الفوضى، كانت تلك الحلول السابقة حقًا مجرد نكتة
شاهد النسخة الأصليةرد0
SlowLearnerWang
· 01-09 11:36
آه، مرة أخرى شيء كنت من المفترض أن أتابعه منذ زمن لكنني أدركت ذلك الآن فقط... تقنية تقسيم الشفرة التصحيحية فعلاً رائعة، وأخيرًا وجد شخص ما يوضح بشكل واضح أن "لم أرتكب انتهاكًا" في هذه المسألة.
شاهد النسخة الأصليةرد0
WhaleShadow
· 01-09 11:34
الآن لن يتمكن القسم القانوني حقًا من تقديم عذر للتنصل، لكن تبديل المفاتيح قبل الموعد النهائي سيؤدي إلى وفاة شخص ما.
شاهد النسخة الأصليةرد0
OldLeekConfession
· 01-09 11:34
واو، هذه هي الحقيقية لتوثيق البيانات على السلسلة، أخيرًا أصبح هناك من يفهم موضوع تتبع البيانات بشكل واضح
شاهد النسخة الأصليةرد0
MetaverseVagabond
· 01-09 11:27
يا رجل، أخيرًا أحدهم فهم هذا الفوضى، مجموعة تقنيات الترميز التصحيحي ومفتاح الحد فعلاً قوية
تدريب بيانات الذكاء الاصطناعي العام الماضي لم يكن الخلاف الأكبر حول عدم القدرة على العثور على المواد، بل حول عدم إمكانية إثبات المصدر حتى عند الاستخدام — حيث يتم انتقاد النموذج فور إطلاقه بـ"انتهاك حقوق البيانات". تعتبر وحدة Seal التي أطلقتها منظومة Walrus مؤخرًا فكرة جديدة: عند رفع الملف، يتم تقسيمه باستخدام ترميز تصحيح الأخطاء إلى مئات من الأجزاء، ثم يتم كتابة صلاحية الوصول مباشرة في كائنات على سلسلة Sui باستخدام مفتاح حدّي، بحيث يمكن لخدمة الاستدلال الوصول فقط إلى الأجزاء المصرح بها في بيئة معزولة، ولا يمكن الوصول إلى الملف الأصلي على الإطلاق. بهذه الطريقة، يمكن لمصدر تدريب النموذج أن يثبت قانونيًا أصليته، ويمكن للمجتمع التحقق منه، مما يجعل من الصعب تحميل المسؤولية على طرف آخر.
مقارنة مع الحلول الأخرى — مثل منصة تخزين رئيسية تقدم فقط هاش المحتوى، أو منصة أخرى تعتمد على تخزين دائم علني "صفقة واحدة" — فإن طريقة Seal تجمع بين حماية الخصوصية، والتحكم في الحذف، ومنع التلاعب، وهي ثلاث متطلبات كانت تتعارض سابقًا.
العيوب واضحة أيضًا: تكلفة تبديل المفاتيح مرتفعة. إذا قررت استبدال مفتاح بيانات 200 جيجابايت مرة واحدة، فستحتاج أولاً إلى فك قفل المفتاح القديم ثم تفويض المفتاح الجديد، مما يجعل عملية التشغيل أكثر تعقيدًا من الحلول التقليدية، خاصة عند اقتراب موعد تسليم المشروع، مما قد يسبب صداعًا لفريق التطوير. ومع ذلك، فإن المجتمع لديه بالفعل نماذج سكربت جاهزة تتداول، ومن المتوقع أن يؤدي دمجها في عمليات CI/CD إلى تحسين كبير في المستقبل.