اقترح فيتاليك بوتيرين بنيةً لتشغيل الذكاء الاصطناعي محليًا، مع التشديد على الخصوصية والأمان والسيادة الذاتية، وحذّر من المخاطر المحتملة لوكلاء الذكاء الاصطناعي.
وفي 2 أبريل، نشر مؤسس إيثيريوم فيتاليك بوتيرين مقالًا طويلًا على موقعه الشخصي، شارك فيه إعداد بيئة عمل للذكاء الاصطناعي صمّمها بحيث تكون الخصوصية والأمان والسيادة الذاتية هي المحور—حيث يتم تنفيذ استنتاجات نماذج LLM محليًا، وتُخزَّن جميع الملفات محليًا، ويتم تطبيق العزل الكامل (sandboxing)، مع تجنّب متعمد لنماذج السحابة وواجهات برمجة التطبيقات الخارجية.
في بداية المقال قدّم تحذيرًا أوليًا: «من فضلك لا تنسخ مباشرة الأدوات والتقنيات الموصوفة في هذه المقالة، وافترض أنها آمنة. هذه مجرد نقطة بداية وليست وصفًا لمنتج مكتمل».
أشار فيتاليك إلى أنه في مطلع هذا العام اكتمل التحول المهم في الذكاء الاصطناعي من «روبوتات الدردشة» إلى «وكلاء»؛ فلم تعد تطرح الأسئلة فحسب، بل تُسند المهام، ويقوم الذكاء الاصطناعي بالتفكير لفترات طويلة، والاستدعاء لأكثر من مئات الأدوات لتنفيذها. وقدّم مثالًا على ذلك OpenClaw (حاليًا هو أسرع مستودع نموًا على GitHub على الإطلاق)، كما ذكر—جنبًا إلى جنب مع عدة مشكلات أمان تم توثيقها بواسطة الباحثين—ما يلي:
وشدّد فيتاليك على أن نقطة انطلاقه فيما يتعلق بالخصوصية تختلف عن تقليدية باحثي أمن المعلومات: «أنا آتٍ من موقف يخشى بشكل عميق أن تُزوَّد حياة الفرد كاملةً إلى ذكاء اصطناعي في السحابة—ففي الوقت الذي أصبحت فيه أخيرًا التشفيرات من طرف إلى طرف والبرمجيات ذات أولوية محلية سائدة، وربما خطونا خطوة للأمام، قد نكون نعود عشر خطوات إلى الوراء».
لقد وضع إطارًا واضحًا لأهداف الأمان:
اختبر فيتاليك ثلاثة إعدادات للمعالجة الاستدلالية محليًا للعتاد، وكان يستخدم بشكل أساسي نموذج Qwen3.5:35B، مع الاستعانة بـ llama-server وllama-swap:
| العتاد | Qwen3.5 35B(tokens/sec) | Qwen3.5 122B(tokens/sec) |
|---|---|---|
| NVIDIA 5090 للّابتوب(24GB VRAM) | 90 | غير قادر على التنفيذ |
| AMD Ryzen AI Max Pro(128GB ذاكرة موحّدة، Vulkan) | 51 | 18 |
| DGX Spark(128GB) | 60 | 22 |
وكان استنتاجه: إن كان الأداء أقل من 50 tok/sec فهو بطيء جدًا، وإن كان 90 tok/sec فهو مثالي. تجربة NVIDIA 5090 للّابتوب كانت الأكثر سلاسة؛ وما زال لدى AMD مشكلات حافة أكثر حتى الآن، لكن هناك أمل في أن تتحسن مستقبلًا. كما أن MacBook الاحترافي خيار فعّال، لكنه شخصيًا لم يجرّبه بنفسه.
وبخصوص DGX Spark قال ذلك بوضوح دون مجاملة: «يُوصَف بأنه ‘كمبيوتر AI خارق للمكتب/سطح المكتب’، لكن في الواقع يكون tokens/sec أقل من أفضل وحدات GPU في اللابتوب الجيدة، فضلًا عن أنه يتطلب إعدادًا إضافيًا لتفاصيل مثل الاتصال بالشبكة—وهذا مخيّب». ونصيحته هي: إذا لم تكن قادرًا على تحمّل كلفة لابتوب فئة عليا، فيمكنك شراء جهاز قوي بما يكفي مع أصدقائك بشكل مشترك، ووضعه في موقع توجد فيه IP ثابتة، ثم يستخدم الجميع الاتصال عن بُعد.
تُشكّل مقالة فيتاليك هذه ردًّا متناسقًا مع مناقشة مشكلات أمان Claude Code التي صدرت في اليوم نفسه—فمع دخول وكلاء الذكاء الاصطناعي في سير العمل اليومي لتطوير البرمجيات، تتحول مشكلات الأمان أيضًا من مخاطر نظرية إلى تهديدات واقعية.
الرسالة الأساسية لديه واضحة جدًا: في الوقت الذي تصبح فيه أدوات الذكاء الاصطناعي أقوى وأقدر على الوصول إلى بياناتك الشخصية وصلاحيات النظام، فإن «الأولوية للمحلي، والعزل (sandboxing)، وأقل قدر من الثقة» ليست هوسًا، بل نقطة بداية عقلانية.