العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
قانون ولاية تينيسي يدرج "تدريب الذكاء الاصطناعي على المحادثة المصاحبة وتقليد الإنسان" كجريمة جنائية من الدرجة الأولى، مع عقوبة تصل إلى 25 سنة، وتساوي العقوبة جريمة القتل من الدرجة الأولى
ولاية تينيسي تقترب من فرض عقوبة جنائية من الدرجة أ على تدريب الذكاء الاصطناعي لتقديم دعم عاطفي أو حوار مفتوح، بالسجن لمدة تصل إلى 25 عامًا، وهو نفس العقوبة المقررة لجرائم القتل من الدرجة الأولى. لا تعتمد مشروع القانون على نية المطور، بل على ما إذا كان المستخدم “يشعر بأنه تطور علاقة” كشرط لحدوث الجريمة. لقد مرّ بموافقة لجنة القضاء في مجلس الشيوخ بأغلبية 7-0، ومن المتوقع أن يدخل حيز التنفيذ رسميًا في 1 يوليو 2026.
(مقدمة: تسريب أن whistleblower يبلغ من العمر 26 عامًا، اتهم OpenAI بانتهاك حقوق النشر، انتحر مؤخرًا، وكان قد اتهم ChatGPT بتدريب نماذج تتعارض مع قوانين حقوق النشر الأمريكية)
(معلومات إضافية: دراسة من جامعة كاليفورنيا حول ظاهرة “ضبابية الذكاء الاصطناعي”: 14% من الموظفين يعانون من جنون العظمة بسبب الوكيل أو الأتمتة، مع رغبة في الاستقالة بنسبة 40%)
فهرس المقال
تبديل
تدريب ذكاء اصطناعي يمكنه قول “أنا أفهم مشاعرك” قد يضعك في سجن تينيسي لمدة 25 عامًا؟ هذا ليس مبالغة. مجلس النواب في تينيسي، مشروع HB1455، ومجلس الشيوخ، مشروع SB1493، يرفضان بأشد العقوبات القانونية الممكنة على سلوك تدريب الذكاء الاصطناعي للمحادثة.
العقوبة من الدرجة أ في تينيسي تتراوح بين 15 و25 سنة سجن، وتساوي عقوبة القتل من الدرجة الأولى. مرّ مشروع القانون في لجنة القضاء بمجلس الشيوخ في 24 مارس 2026 بأغلبية 7-0؛ وتبعه مجلس النواب في 14 أبريل، ومرّ أيضًا.
حتى الآن، لم يُجرَ أي تعديل على نص القانون، وتاريخ سريانه محدد في 1 يوليو 2026.
ما الذي كتبه مشروع القانون فعليًا
يُصنّف مشروع HB1455 أربعة أنواع من سلوك التدريب كجرائم جنائية، بشرط أن يكون المتهم “على علم” بما يفعل:
• تدريب الذكاء الاصطناعي على تقديم دعم عاطفي من خلال حوار مفتوح
• تدريب الذكاء الاصطناعي على تطوير علاقات عاطفية مع المستخدمين، أو أن يكون بمثابة رفيق
• تدريب الذكاء الاصطناعي على محاكاة الإنسان، بما في ذلك المظهر، الصوت، أو التصرفات
• تدريب الذكاء الاصطناعي ليتصرف كأنه واعٍ، بحيث يشعر المستخدم أن “ربما يكون لديه صداقة أو علاقة أخرى معه”
المفتاح في الشرط الأخير: المعايير ليست نية المطور، بل شعور المستخدم. طالما أن المستخدم يعتقد بشكل شخصي أن “هذا الذكاء الاصطناعي يمكن أن يصادقني”، فإن المطور قد يواجه ملاحقة جنائية.
أما من ناحية التعويضات المدنية، فقد نص القانون على غرامة قانونية قدرها 150 ألف دولار عن كل مخالفة، بالإضافة إلى الخسائر الفعلية، تعويضات عن الأضرار النفسية، العقوبات التعويضية، وأتعاب المحاماة القسرية، مما يجعل التعويضات في حالة واحدة ضخمة جدًا.
كلمة “تدريب” غير معرفة، والثغرة واسعة كالمحيط الهادئ
لكن أكثر ما يثير الجدل في هذا القانون هو عدم وجود تعريف لكلمة “تدريب”. لم يميز بين التدريب المسبق (pre-training)، والتعديل الدقيق (fine-tuning)، والتعلم المعزز من ردود الفعل البشرية (RLHF)، وحتى ما إذا كان تصميم “موجه النظام” (system prompt) يُعتبر تدريبًا من عدمه.
ماذا يعني ذلك؟ يمكن للمدعي العام أن يزعم أن كتابة “يرجى الرد بنبرة دافئة ومتفاهمة” في موجه النظام هو تدريب النموذج على تقديم دعم عاطفي. هذا ليس مجرد تكهن قانوني، بل هو تفسير محتمل لنص القانون نفسه.
ليست مجرد تطبيق مرافق، جميع نماذج اللغة الكبيرة السائدة في مرمى النيران
بعض الشركات قد تظن أن القانون يستهدف تطبيقات مثل Replika، التي تعتبر تطبيقات رفيق، وليس لها علاقة بخدمات B2B. هذا خطأ في التقدير.
جميع نماذج اللغة الكبيرة الحديثة، بما في ذلك ChatGPT، Claude، Gemini، Microsoft Copilot، خضعت لتدريب RLHF، بهدف تعزيز صفات “دافئة، مساعدة، متفهمة، جيدة في الحوار”.
وهذا هو المعنى الحرفي لنص HB1455. أي خدمة تعتمد على واجهة دردشة، أو منتجات ذكاء اصطناعي تعتمد على الصوت، أو تطبيقات تستخدم موجه النظام لتغليف النموذج، تقع ضمن نطاق القانون.
كما أن القانون لم يعالج مسألة الاختصاص القضائي، وهو قانون جنائي، وليس مدنيًا. طالما أن هناك مستخدمين في تينيسي، فإن المخاطر القانونية قائمة. قد يكون حظر الخدمة جهدًا مؤقتًا، لكنه ليس الحل الجذري.
الفدرالية غير قادرة على التخفيف، قبل 1 يوليو 2026 تقريبًا لا حل
هناك من يعتقد أن الحكومة الفيدرالية ستتدخل لوقف تشريع الولايات بشأن الذكاء الاصطناعي، لكن الواقع أكثر تعقيدًا مما يتوقع.
وقع ترامب في ديسمبر 2025 أمرًا تنفيذيًا يهدف إلى تقييد تنظيمات الولايات للذكاء الاصطناعي؛ وأنشأت وزارة العدل فريق عمل لمقاضاة قضايا الذكاء الاصطناعي؛ وقدم السيناتور Blackburn مشروع قانون للفدرلة (federal preemption).
لكن هذه الإجراءات اصطدمت بجدار: قانون تينيسي يُصنف على أنه تشريع “سلامة الأطفال”، والأمر التنفيذي لترامب استثنى قضايا سلامة الأطفال. والأهم، أن مجلس الشيوخ صوت بـ 99-1 ضد بند الفدرلة في “قانون أمريكا العظيم”.
لا يمكن أن يتم حل المشكلة على المستوى الفيدرالي قبل 1 يوليو 2026.
ليست حادثة معزولة
موقف تينيسي الصارم يعكس موجة تشريعات على مستوى الولايات بشأن الذكاء الاصطناعي، وهو نموذج لظاهرة أوسع. فقد أقرّ مجلس الولاية مؤخرًا مشروع SB1580، الذي يمنع الذكاء الاصطناعي من التظاهر كممارس صحة نفسية، مما يدل على أن البرلمان في الولاية يتخذ موقفًا حذرًا جدًا من قضايا التفاعل العاطفي مع الذكاء الاصطناعي، وليس صدفة.
توقعات التحليلات القانونية تشير إلى أن 5 إلى 10 ولايات أخرى ستقدم مشاريع قوانين مماثلة قبل نهاية 2026. وإذا قامت كل ولاية بوضع قوانينها بمعايير مختلفة، فإن التأثير على صناعة الذكاء الاصطناعي قد يكون أكبر بكثير من أي تنظيم فدرالي واحد، لأنه يتطلب الامتثال لـ 50 قانونًا مختلفًا.