lang icon En
Dec. 31, 2025, 1:38 p.m.
170

قانون الشفافية في الذكاء الاصطناعي بكاليفورنيا: متطلبات جديدة لعمالقة التقنية تبدأ من عام 2024

Brief news summary

اعتبارًا من 1 يناير، أصدرت كاليفورنيا قانونًا رائدًا يفرض على كبار مطوري الذكاء الاصطناعي، بما في ذلك جوجل وOpenAI، الكشف عن الآثار المجتمعية لنماذجهم المتقدمة وحماية المبلغين عن المخاطر الذين يبلغون عن مخاوف تتعلق بالسلامة. صاغه السيناتور سكوت ويدر ووقع عليه الحاكم جافين نيوزوم، ويتطلب التشريع وجود أُطُر سلامة عامة لإدارة مخاطر الذكاء الاصطناعي، مع غرامات تصل إلى مليون دولار عن كل انتهاك. يجب على الشركات الإبلاغ عن الحوادث الكارثية المتعلقة بالذكاء الاصطناعي — أكثر من 50 وفاة أو أضرار بقيمة مليار دولار — خلال 15 يومًا، أو خلال 24 ساعة إذا ظهرت تهديدات وشيكة من الذكاء الاصطناعي المستقل. يزيد القانون من الشفافية عبر تقارير عامة عن استخدام الذكاء الاصطناعي، والقيود، وتقييمات المخاطر، والتي يخضع بعضها لمراجعة مستقلة. تواجه عمليات التنفيذ تحديات بسبب تقديمات سرية وحمايات سرية تجارية. يسلط النقاد الضوء على استثناءات الأضرار البيئية، والمعلومات المضللة، والتحيز، والتنميط، ويشيرون إلى أن القانون ينطبق فقط على الشركات التي تتجاوز إيراداتها 500 مليون دولار. ستتطلب القواعد المستقبلية الكشف عن بيانات تدريب الذكاء الاصطناعي. ستبدأ تقارير الحوادث الشاملة من قبل مكتب الطوارئ في عام 2027، لكنها ستغفل أسماء النماذج المحددة، مما يقيد الشفافية. هذا التشريع التاريخي يضع سابقة تشجع الولايات الأخرى على تعزيز سلامة ومساءلة الذكاء الاصطناعي على مستوى البلاد.

ابتداءً من الأول من يناير، يُطبق قانون جديد وقعه حاكم كاليفورنيا جافين نيوزوم، يتطلب من شركات التكنولوجيا التي تطور نماذج ذكاء اصطناعي متقدمة وكبيرة، مثل Google وOpenAI،زيادة الشفافية بشأن الأثر المجتمعي وحماية الموظفين الذين يثيرون مخاوف تتعلق بالسلامة. ويوفر القانون protections للموظفين المبلّغين عن مخاطر السلامة الحرجة، ويُلزم مطوري الذكاء الاصطناعي الكبار بنشر أُطُر على مواقعهم الإلكترونية توضح كيفية إدارة المخاطر الكارثية والاستجابة للحوادث. كما يتوجب على الشركات الإبلاغ عن حوادث السلامة الحرجة للولاية خلال 15 يومًا، أو خلال 24 ساعة في حال وجود تهديد وشيك للموت أو الإصابة. ويمكن أن تصل الغرامات إلى مليون دولار لكل مخالفة. وينطلق هذا القانون من مشروع قانون مجلس الشيوخ 53، الذي قدمه السيناتور سكوت وينر، ويستهدف المخاطر الكارثية التي تُعرف بأنها السيناريوهات التي يتسبب فيها الذكاء الاصطناعي في مقتل أكثر من 50 شخصًا عبر هجمات إلكترونية أو استخدام أسلحة، أو ينتج عنها خسائر أو أضرار تزيد عن مليار دولار، خاصة في الحالات التي يفقد فيها المشغلون السيطرة على تصرفات الذكاء الاصطناعي، وهو الأمر الذي يُعتبر مهملاً إلى حد كبير من الناحية النظرية. ويُلزم القانون منشئي الذكاء الاصطناعي إصدار تقارير شفافية تصف الاستخدامات المقصودة للنموذج، والقيود على الاستخدام، وأساليب إدارة المخاطر، وأي مراجعات من طرف ثالث لهذه الجهود. يرى ريشى بومسادانى من جامعة ستانفورد، وهو أحد المساهمين الرئيسيين في تقرير أثّر على قانون SB 53، أن القانون يمثل تطورًا حيويًا نحو شفافية الذكاء الاصطناعي، مشيرًا إلى أن فقط 3 من أصل 13 شركة دراستها فريقه تُبلغ بانتظام عن حوادث، واندرست مستوى الشفافية. ومع ذلك، يؤكد أن تأثير القانون يعتمد بشكل كبير على تنفيذ الجهات الحكومية وتخصيص الموارد.

كما أثّر القانون على دول أخرى، حيث يتبع قانون الشفافية والسلامة للذكاء الاصطناعي في نيويورك نموذج كاليفورنيا. وعلى الرغم من التقدم، يشير النقاد إلى وجود ثغرات كبيرة؛ إذ يستثني القانون المخاطر المرتبطة بالتأثيرات البيئية، والمعلومات المضللة، والتحيزات النظامية مثل التفرقة بين الجنسين أو العنصرية، ولا يغطي أنظمة الذكاء الاصطناعي الحكومية المستخدمة في التصنيف أو تقييم الآثار. كما يقتصر على الشركات التي تتجاوز إيراداتها السنوية 500 مليون دولار. كما أن متطلبات الشفافية محدودة – إذ تُعتبر تقارير الحوادث المقدمة لمكتب الطوارئ في كاليفورنيا (OES) سرية، ولا يمكن الوصول إليها إلا من قبل المشرعين والحاكم، وقد تُحجب جزئيًا لحماية الأسرار التجارية، مما يقيد الوصول العام. يأمل بومسادانى أن تأتي مزيد من الشفافية من مشروع قانون الجمعية رقم 2013، الذي سيدخل حيز التنفيذ في 1 يناير 2024، ويتطلب الإفصاح عن البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي. وتشمل بنود أخرى من قانون SB 53 بداية من عام 2027 إصدار OES تقارير غير شخصية عن حوادث السلامة الحرجة التي تتلقاها من الجمهور ومن مطوري الذكاء الاصطناعي. وعلى الرغم من أن ذلك قد يُوضح احتمالية هجمات أو تصرفات مستقلة، إلا أنه لن يُحدد علنًا نماذج الذكاء الاصطناعي المعرضة للمخاطر بشكل محدد.


Watch video about

قانون الشفافية في الذكاء الاصطناعي بكاليفورنيا: متطلبات جديدة لعمالقة التقنية تبدأ من عام 2024

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 31, 2025, 1:25 p.m.

فترات الحجز الأقصر تتطلب تسويقًا أذكى: كيف يمكن لل…

يشهد قطاع السفر تحولًا عميقًا في سلوك المستهلك يتجاوز التقلبات الاقتصادية المعتادة.

Dec. 31, 2025, 1:23 p.m.

تأثير وضع الذكاء الاصطناعي على حركة البحث واسترات…

وضع الذكاء الاصطناعي (AI) يُحدث تحولًا سريعًا في تحسين محركات البحث (SEO) من خلال تقديم ميزات مبتكرة وتحديات للممارسات التقليدية.

Dec. 31, 2025, 1:20 p.m.

تحسين أدوات مؤتمرات الفيديو المدعومة بالذكاء الاص…

الذكاء الاصطناعي يُحول بشكل كبير التعاون عن بُعد بين الفرق، خاصة من خلال تحسين أدوات المؤتمرات المرئية.

Dec. 31, 2025, 1:14 p.m.

العشرة قوانين لتوظيف نائب رئيس المبيعات في عصر ال…

تبقى المسرحيات كما هي، لكن القواعد قد تغيرت بشكل كبير—إليك ما يهم حقًا الآن.

Dec. 31, 2025, 9:31 a.m.

تمكين توليف الفيديو باستخدام الذكاء الاصطناعي من …

ثورة تركيب الفيديو بالذكاء الاصطناعي تُحدث تحولًا كبيرًا في الترجمة الفورية للغات في الفيديوهات، مُكسرة حواجز التواصل في عصر العولمة السريع والتواصل المتزايد، تظل حواجز اللغة تشكل تحديًا كبيرًا أمام التواصل السلس وتبادل المعلومات

Dec. 31, 2025, 9:24 a.m.

قد تكون استحواذ شركة ميتا على Manus AI بقيمة تصل …

تُعد استحواذ شركة ميتا الأخير على Manus AI علامة بارزة في التوسع الاستراتيجي لعملاق التكنولوجيا نحو قطاع الذكاء الاصطناعي المؤسسي.

Dec. 31, 2025, 9:19 a.m.

الذكاء الاصطناعي وتحسين محركات البحث: مغير قواعد …

الذكاء الاصطناعي (AI) يعيد تشكيل عملية إنشاء وتحسين المحتوى تدريجياً، مُحدثًا تغييرًا مهمًا في نهج المسوقين تجاه استراتيجيات تسويق المحتوى.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today