تواجه الوكلاء الذكاء الاصطناعي تهديد حقن التلميحات: لا تزال المخاطر مرتفعة بعد ترقية الدفاعات

robot
إنشاء الملخص قيد التقدم

【عملة界】某头部 AI شركة مؤخراً كشفت عن حقيقة محرجة: منتجات متصفح الذكاء الاصطناعي الخاصة بهم تواجه مشكلة أمنية لا يمكن التغلب عليها – هجوم حقن الإشعارات. بعبارة أخرى، يمكن للهاكر أن يقوم من خلال التعليمات المخفية في صفحات الويب أو الرسائل الإلكترونية، بالتلاعب سراً بعميل الذكاء الاصطناعي لتنفيذ عمليات خبيثة. هذه ليست جديدة، لكن الشركة اعترفت أيضاً بأنه من المستحيل بشكل أساسي القضاء على هذه الأنواع من الهجمات.

لمواجهة هذه الأزمة، قاموا بتفعيل نظام دفاعي تلقائي يعتمد على نماذج اللغة الكبيرة. تم تدريب هذا النظام الدفاعي بواسطة التعلم المعزز، مما يمكنه من محاكاة الهجمات الجديدة التي قد يستخدمها الهاكر داخليًا بشكل مستمر، وبالتالي اكتشاف الثغرات وإغلاقها مسبقًا. كانت هناك نتائج إيجابية - حيث تم مؤخرًا التعرف على رسائل بريد إلكتروني خبيثة حاولت خداع الوكلاء لإرسال استقالات ووقفها بنجاح.

لكن هنا يوجد سؤال رئيسي: مثل هذه المتصفحات الذكية، تمتلك في جوهرها قدرة معينة على اتخاذ القرارات بشكل مستقل، ويمكنها الوصول إلى البيانات الحساسة للمستخدمين. في ظل هذه التركيبة من الأذونات والاستقلالية، قد لا تصل مستوى مخاطر الأمان إلى مستوى يطمئن المستخدمين للاستخدام اليومي. بعبارة بسيطة، فإن تقدم قدرات الدفاع لا يتماشى مع سرعة زيادة المخاطر.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 3
  • إعادة النشر
  • مشاركة
تعليق
0/400
ChainSauceMastervip
· 12-22 23:10
إن أنظمة الدفاع لا تستطيع منع الحقن، مهما قاموا بتحسينها، سيتعرضون دائماً لضغوط الهاكر. وكيل الذكاء الاصطناعي الذي يتخذ قرارات بنفسه يمكنه الوصول إلى بياناتك الخاصة، وهذا في حد ذاته قنبلة موقوتة. لذا، مهما كانت أنظمة الدفاع قوية، لن تستطيع منع خيال الإنسان، سيحدث شيء في نهاية المطاف. إذا أغلقت طريق الاستقالة، سيظهرون غداً طرقاً جديدة... وهكذا تستمر الدورة بلا نهاية. وهذا هو السبب في أنني دائماً لا أثق كثيراً في هذه الأشياء المتعلقة بالذكاء الاصطناعي المستقل، فهناك الكثير من نقاط الخطر.
شاهد النسخة الأصليةرد0
MEVHunterZhangvip
· 12-22 23:04
تحذير، لا يمكن منع حقن النص، هذا محرج... هل تجرؤ على إيقاف الوظيفة الذاتية مباشرة؟ --- إنه حقًا حلقة مفرغة، الذكاء الاصطناعي ضد الذكاء الاصطناعي... أشعر وكأنهم يستخدمون رمحًا لطعن درع --- هاكر: "سأستمر في التطور"، الشركة: "سأفعل أيضًا"... المستخدمون ينتظرون أن يتم التعامل معهم --- إذا كان بإمكانهم الوصول إلى بيانات حساسة ولا يزال هناك العديد من الثغرات، فأنا لا أجرؤ على الاستخدام --- مشكلة أمنية أخرى "لا يمكن القضاء عليها"، كم من الدروس يجب أن يتعلمها ويب 3؟
شاهد النسخة الأصليةرد0
SchrodingersPapervip
· 12-22 22:43
نظام الدفاع الذي لا يمكنه الاستمرار في الضغط عليه، هل أصبح النظام نفسه هدفًا جديدًا؟ هذه الدورة حقًا مذهلة ها لا يمكن منعه على الإطلاق، LLM هو سلاح ذو حدين، كلما زادت ذكاءً زادت خطورته رسالة الاستقالة عبر البريد الإلكتروني هاهاها، لحسن الحظ لم تصبح حقيقة، وإلا لكانت محرجًا جدًا هل يمكن لوكيل الذكاء الاصطناعي أن يمتلك صلاحيات ذاتية ويستطيع الوصول إلى بيانات المستخدمين؟ كيف يجرؤون على اللعب بهذه الطريقة في هذا المجال حماية التعلم المعزز تبدو مثيرة للإعجاب، ولكن جوهرها هو أنها تلعب لعبة تخمين مع الهاكر هذا هو السبب في أنني لا أستخدم هذا النوع من المتصفحات، فالعائد على المخاطر مرتفع جدًا نظام الدفاع ضد أساليب الهجوم، هو دائمًا سباق تسلح، شعور بلا نهاية.
شاهد النسخة الأصليةرد0
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$3.5Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.49Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.5Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.53Kعدد الحائزين:1
    0.21%
  • القيمة السوقية:$5.47Kعدد الحائزين:44
    9.27%
  • تثبيت