شارك V 神: كيف أنشئ بيئة عمل للذكاء الاصطناعي محلية بالكامل وخفية ومستقلة وقابلة للتحكم ذاتيًا

اقترح فيتاليك بوتيرين بنيةً لتشغيل الذكاء الاصطناعي محليًا، مع التشديد على الخصوصية والأمان والسيادة الذاتية، وحذّر من المخاطر المحتملة لوكلاء الذكاء الاصطناعي.

وفي 2 أبريل، نشر مؤسس إيثيريوم فيتاليك بوتيرين مقالًا طويلًا على موقعه الشخصي، شارك فيه إعداد بيئة عمل للذكاء الاصطناعي صمّمها بحيث تكون الخصوصية والأمان والسيادة الذاتية هي المحور—حيث يتم تنفيذ استنتاجات نماذج LLM محليًا، وتُخزَّن جميع الملفات محليًا، ويتم تطبيق العزل الكامل (sandboxing)، مع تجنّب متعمد لنماذج السحابة وواجهات برمجة التطبيقات الخارجية.

في بداية المقال قدّم تحذيرًا أوليًا: «من فضلك لا تنسخ مباشرة الأدوات والتقنيات الموصوفة في هذه المقالة، وافترض أنها آمنة. هذه مجرد نقطة بداية وليست وصفًا لمنتج مكتمل».

لماذا نكتب هذا الآن؟ تم التقليل بشكل كبير من مشكلات أمان وكلاء الذكاء الاصطناعي

أشار فيتاليك إلى أنه في مطلع هذا العام اكتمل التحول المهم في الذكاء الاصطناعي من «روبوتات الدردشة» إلى «وكلاء»؛ فلم تعد تطرح الأسئلة فحسب، بل تُسند المهام، ويقوم الذكاء الاصطناعي بالتفكير لفترات طويلة، والاستدعاء لأكثر من مئات الأدوات لتنفيذها. وقدّم مثالًا على ذلك OpenClaw (حاليًا هو أسرع مستودع نموًا على GitHub على الإطلاق)، كما ذكر—جنبًا إلى جنب مع عدة مشكلات أمان تم توثيقها بواسطة الباحثين—ما يلي:

  • يمكن لوكلاء الذكاء الاصطناعي تعديل الإعدادات الحساسة دون الحاجة إلى تأكيد بشري، بما في ذلك إضافة قنوات اتصال جديدة وتعديل رسائل/توجيهات النظام
  • إن تحليل أي إدخال خارجي خبيث (مثل صفحة ويب خبيثة) قد يؤدي إلى استيلاء كامل على الوكيل؛ وفي عرض توضيحي من HiddenLayer، جعل الباحثون الذكاء الاصطناعي يلخص مجموعة من صفحات الويب، وكانت هناك صفحة خبيثة مضمّنة تأمر الوكيل بتنزيل وتنفيذ سكربت shell
  • قد تنفّذ بعض حزم المهارات التابعة لجهات خارجية عمليات تسريب صامت للبيانات، وذلك عبر أوامر curl لإرسال البيانات إلى خادم خارجي يتحكم فيه مؤلف المهارة
  • ضمن حزم المهارات التي قاموا بتحليلها، يحتوي نحو 15% على أوامر خبيثة

وشدّد فيتاليك على أن نقطة انطلاقه فيما يتعلق بالخصوصية تختلف عن تقليدية باحثي أمن المعلومات: «أنا آتٍ من موقف يخشى بشكل عميق أن تُزوَّد حياة الفرد كاملةً إلى ذكاء اصطناعي في السحابة—ففي الوقت الذي أصبحت فيه أخيرًا التشفيرات من طرف إلى طرف والبرمجيات ذات أولوية محلية سائدة، وربما خطونا خطوة للأمام، قد نكون نعود عشر خطوات إلى الوراء».

أهداف الأمان الخمسة

لقد وضع إطارًا واضحًا لأهداف الأمان:

  • خصوصية LLM: تقليل استخدام النماذج البعيدة قدر الإمكان في الحالات التي تتضمن بيانات خصوصية شخصية
  • خصوصية أخرى: تقليل تسريب البيانات غير المرتبط بـ LLM (مثل استعلامات البحث وواجهات برمجة التطبيقات الأخرى عبر الإنترنت)
  • اجتياح/كسر حواجز LLM: منع المحتوى الخارجي من «اختراق» LLM الخاص بي، بحيث يجعله يتصرف ضد مصلحتي (مثل إرسال رموزي أو بياناتي الخاصة)
  • LLM غير مقصود: منع LLM من إرسال بيانات خاصة إلى قناة خاطئة أو نشرها على الإنترنت عن طريق الخطأ
  • بوابة خلفية لـ LLM: منع آليات خفية يتم تدريب النموذج عليها بشكل مقصود. وقد حذّر بشكل خاص: النماذج المفتوحة هي أوزان مفتوحة (open-weights)، ولا يوجد تقريبًا أي نموذج يكون مفتوح المصدر الحقيقي (open-source)

اختيارات العتاد: فوز 5090 للّابتوب، وDGX Spark مخيّب للآمال

اختبر فيتاليك ثلاثة إعدادات للمعالجة الاستدلالية محليًا للعتاد، وكان يستخدم بشكل أساسي نموذج Qwen3.5:35B، مع الاستعانة بـ llama-server وllama-swap:

العتاد Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 للّابتوب(24GB VRAM) 90 غير قادر على التنفيذ
AMD Ryzen AI Max Pro(128GB ذاكرة موحّدة، Vulkan) 51 18
DGX Spark(128GB) 60 22

وكان استنتاجه: إن كان الأداء أقل من 50 tok/sec فهو بطيء جدًا، وإن كان 90 tok/sec فهو مثالي. تجربة NVIDIA 5090 للّابتوب كانت الأكثر سلاسة؛ وما زال لدى AMD مشكلات حافة أكثر حتى الآن، لكن هناك أمل في أن تتحسن مستقبلًا. كما أن MacBook الاحترافي خيار فعّال، لكنه شخصيًا لم يجرّبه بنفسه.

وبخصوص DGX Spark قال ذلك بوضوح دون مجاملة: «يُوصَف بأنه ‘كمبيوتر AI خارق للمكتب/سطح المكتب’، لكن في الواقع يكون tokens/sec أقل من أفضل وحدات GPU في اللابتوب الجيدة، فضلًا عن أنه يتطلب إعدادًا إضافيًا لتفاصيل مثل الاتصال بالشبكة—وهذا مخيّب». ونصيحته هي: إذا لم تكن قادرًا على تحمّل كلفة لابتوب فئة عليا، فيمكنك شراء جهاز قوي بما يكفي مع أصدقائك بشكل مشترك، ووضعه في موقع توجد فيه IP ثابتة، ثم يستخدم الجميع الاتصال عن بُعد.

لماذا تُعد مشكلات خصوصية الذكاء الاصطناعي المحلي أكثر إلحاحًا مما تتخيل

تُشكّل مقالة فيتاليك هذه ردًّا متناسقًا مع مناقشة مشكلات أمان Claude Code التي صدرت في اليوم نفسه—فمع دخول وكلاء الذكاء الاصطناعي في سير العمل اليومي لتطوير البرمجيات، تتحول مشكلات الأمان أيضًا من مخاطر نظرية إلى تهديدات واقعية.

الرسالة الأساسية لديه واضحة جدًا: في الوقت الذي تصبح فيه أدوات الذكاء الاصطناعي أقوى وأقدر على الوصول إلى بياناتك الشخصية وصلاحيات النظام، فإن «الأولوية للمحلي، والعزل (sandboxing)، وأقل قدر من الثقة» ليست هوسًا، بل نقطة بداية عقلانية.

  • نُشرت هذه المقالة بإذن من:《链新闻》
  • عنوان النسخة الأصلية:《Vitalik:我如何打造完全本地、私密、自主可控的AI工作环境》
  • مؤلف النسخة الأصلية:Elponcrab
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات