كاليفورنيا تقترب من قانون الذكاء الاصطناعي: ما الذي تتضمنه SB 53؟
مشروع قانون كاليفورنيا لسلامة الذكاء الاصطناعي: متطلبات الشفافية الجديدة
وافق مجلس الشيوخ بولاية كاليفورنيا أخيرًا في صباح يوم السبت على مشروع قانون رئيسي لسلامة الذكاء الاصطناعي، يفرض متطلبات شفافة جديدة على الشركات الكبرى. هذا المشروع، الذي يحمل اسم SB 53 وقد صاغه السيناتور سكوت وينر، يتطلب من مختبرات الذكاء الاصطناعي الكبيرة أن تكون شفافة بشأن بروتوكولاتها الأمنية، ويوفر حماية للمبلغين عن المخالفات للموظفين في هذه المختبرات، وينشئ سحابة عامة لتوسيع نطاق الوصول إلى الحوسبة (CalCompute). تُعرف CalCompute بأنها تجمع حوسبة سحابية عام يهدف إلى دعم الشركات الناشئة والباحثين والمجموعات المجتمعية التي تفتقر إلى موارد الحوسبة واسعة النطاق، مما يعزز الابتكار الديمقراطي في مجال الذكاء الاصطناعي ويساعد كاليفورنيا في الحفاظ على ريادتها العالمية في هذا المجال. المصدر: Senator Scott Wiener, 2024.
Key Components of a Knowledge Graph

الآن، ينتقل مشروع القانون إلى حاكم ولاية كاليفورنيا، غافين نيوسوم، للتوقيع عليه أو نقضه. لم يعلق نيوسوم علنًا على SB 53، لكنه في العام الماضي نقض مشروع قانون أكثر شمولاً للسلامة، كان أيضًا من تأليف وينر (SB 1047). وقد انتقد نيوسوم مشروع القانون السابق لتطبيقه "معايير صارمة" على النماذج الكبيرة بغض النظر عما إذا كانت "منتشرة في بيئات عالية المخاطر، أو تنطوي على اتخاذ قرارات حاسمة أو استخدام بيانات حساسة". يُشار إلى أن مشروع SB 1047 كان سيتطلب من مطوري نماذج الذكاء الاصطناعي "الحدودية" (Frontier AI models) إجراء تقييمات للسلامة، والإبلاغ عن أي مخاطر خطيرة محتملة، وإنشاء آليات أمان لمنع سوء الاستخدام. المصدر: Wikipedia, 2025. في المقابل، وقع نيوسوم على تشريعات أضيق نطاقًا تستهدف قضايا مثل التزييف العميق، مؤكدًا على أهمية "حماية الجمهور من التهديدات الحقيقية التي تفرضها هذه التكنولوجيا".
Benefits of Using Knowledge Graphs

صرح وينر بأن مشروع القانون الجديد SB 53 تأثر بتوصيات لجنة خبراء الذكاء الاصطناعي التي شكلها نيوسوم بعد نقضه للمشروع السابق. وتشير تقارير بوليتيكو أيضًا إلى أن SB 53 عُدل مؤخرًا بحيث تحتاج الشركات التي تطور نماذج ذكاء اصطناعي "رائدة" وتحقق إيرادات سنوية أقل من 500 مليون دولار فقط إلى الكشف عن تفاصيل أمان عالية المستوى، بينما سيتعين على الشركات التي تتجاوز هذه الإيرادات تقديم تقارير أكثر تفصيلاً. تتضمن متطلبات الشفافية هذه الكشف عن بروتوكولات الأمان المتعلقة بتطوير ونشر نماذج الذكاء الاصطناعي، بهدف ضمان قدر أكبر من المساءلة وتقليل المخاطر المحتملة. المصدر: LegiScan, 2025.
Use Cases of Knowledge Graphs

وقد عارض مشروع القانون عدد من شركات وادي السيليكون، وشركات رأس المال المغامر، ومجموعات الضغط. في رسالة حديثة إلى نيوسوم، لم تذكر OpenAI مشروع SB 53 تحديدًا، لكنها جادلت بأنه لتجنب "الازدواجية والتناقضات"، ينبغي اعتبار الشركات ملتزمة بقواعد السلامة على مستوى الولاية طالما أنها تفي بالمعايير الفيدرالية أو الأوروبية. كما زعم رئيس سياسة الذكاء الاصطناعي والمدير القانوني في Andreessen Horowitz مؤخرًا أن "العديد من مشاريع قوانين الذكاء الاصطناعي الحالية في الولايات – مثل المقترحات في كاليفورنيا ونيويورك – تخاطر" بتجاوز الخطوط الدستورية المتعلقة بكيفية تنظيم الولايات للتجارة بين الولايات. وقد أشار المؤسسون المشاركون في a16z سابقًا إلى تنظيم التكنولوجيا كأحد العوامل التي دفعتهم إلى دعم محاولة دونالد ترامب للحصول على فترة ثانية. ودعت إدارة ترامب وحلفاؤها لاحقًا إلى حظر تنظيم الذكاء الاصطناعي على مستوى الولاية لمدة 10 سنوات، بحجة أن التنظيم الفيدرالي هو النهج الأنسب لمثل هذه التكنولوجيا الناشئة. المصدر: Politico, 2025. في المقابل، أعلنت شركة Anthropic دعمها لمشروع SB 53. وقال جاك كلارك، المؤسس المشارك في Anthropic، في منشور له: "لقد قلنا منذ فترة طويلة إننا نفضل معيارًا فيدراليًا. ولكن في غياب ذلك، يخلق هذا الأمر مخططًا قويًا لحوكمة الذكاء الاصطناعي لا يمكن تجاهله."