ابتداءً من الأول من يناير، يُطبق قانون جديد وقعه حاكم كاليفورنيا جافين نيوزوم، يتطلب من شركات التكنولوجيا التي تطور نماذج ذكاء اصطناعي متقدمة وكبيرة، مثل Google وOpenAI،زيادة الشفافية بشأن الأثر المجتمعي وحماية الموظفين الذين يثيرون مخاوف تتعلق بالسلامة. ويوفر القانون protections للموظفين المبلّغين عن مخاطر السلامة الحرجة، ويُلزم مطوري الذكاء الاصطناعي الكبار بنشر أُطُر على مواقعهم الإلكترونية توضح كيفية إدارة المخاطر الكارثية والاستجابة للحوادث. كما يتوجب على الشركات الإبلاغ عن حوادث السلامة الحرجة للولاية خلال 15 يومًا، أو خلال 24 ساعة في حال وجود تهديد وشيك للموت أو الإصابة. ويمكن أن تصل الغرامات إلى مليون دولار لكل مخالفة. وينطلق هذا القانون من مشروع قانون مجلس الشيوخ 53، الذي قدمه السيناتور سكوت وينر، ويستهدف المخاطر الكارثية التي تُعرف بأنها السيناريوهات التي يتسبب فيها الذكاء الاصطناعي في مقتل أكثر من 50 شخصًا عبر هجمات إلكترونية أو استخدام أسلحة، أو ينتج عنها خسائر أو أضرار تزيد عن مليار دولار، خاصة في الحالات التي يفقد فيها المشغلون السيطرة على تصرفات الذكاء الاصطناعي، وهو الأمر الذي يُعتبر مهملاً إلى حد كبير من الناحية النظرية. ويُلزم القانون منشئي الذكاء الاصطناعي إصدار تقارير شفافية تصف الاستخدامات المقصودة للنموذج، والقيود على الاستخدام، وأساليب إدارة المخاطر، وأي مراجعات من طرف ثالث لهذه الجهود. يرى ريشى بومسادانى من جامعة ستانفورد، وهو أحد المساهمين الرئيسيين في تقرير أثّر على قانون SB 53، أن القانون يمثل تطورًا حيويًا نحو شفافية الذكاء الاصطناعي، مشيرًا إلى أن فقط 3 من أصل 13 شركة دراستها فريقه تُبلغ بانتظام عن حوادث، واندرست مستوى الشفافية. ومع ذلك، يؤكد أن تأثير القانون يعتمد بشكل كبير على تنفيذ الجهات الحكومية وتخصيص الموارد.
كما أثّر القانون على دول أخرى، حيث يتبع قانون الشفافية والسلامة للذكاء الاصطناعي في نيويورك نموذج كاليفورنيا. وعلى الرغم من التقدم، يشير النقاد إلى وجود ثغرات كبيرة؛ إذ يستثني القانون المخاطر المرتبطة بالتأثيرات البيئية، والمعلومات المضللة، والتحيزات النظامية مثل التفرقة بين الجنسين أو العنصرية، ولا يغطي أنظمة الذكاء الاصطناعي الحكومية المستخدمة في التصنيف أو تقييم الآثار. كما يقتصر على الشركات التي تتجاوز إيراداتها السنوية 500 مليون دولار. كما أن متطلبات الشفافية محدودة – إذ تُعتبر تقارير الحوادث المقدمة لمكتب الطوارئ في كاليفورنيا (OES) سرية، ولا يمكن الوصول إليها إلا من قبل المشرعين والحاكم، وقد تُحجب جزئيًا لحماية الأسرار التجارية، مما يقيد الوصول العام. يأمل بومسادانى أن تأتي مزيد من الشفافية من مشروع قانون الجمعية رقم 2013، الذي سيدخل حيز التنفيذ في 1 يناير 2024، ويتطلب الإفصاح عن البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي. وتشمل بنود أخرى من قانون SB 53 بداية من عام 2027 إصدار OES تقارير غير شخصية عن حوادث السلامة الحرجة التي تتلقاها من الجمهور ومن مطوري الذكاء الاصطناعي. وعلى الرغم من أن ذلك قد يُوضح احتمالية هجمات أو تصرفات مستقلة، إلا أنه لن يُحدد علنًا نماذج الذكاء الاصطناعي المعرضة للمخاطر بشكل محدد.
قانون الشفافية في الذكاء الاصطناعي بكاليفورنيا: متطلبات جديدة لعمالقة التقنية تبدأ من عام 2024
يشهد قطاع السفر تحولًا عميقًا في سلوك المستهلك يتجاوز التقلبات الاقتصادية المعتادة.
وضع الذكاء الاصطناعي (AI) يُحدث تحولًا سريعًا في تحسين محركات البحث (SEO) من خلال تقديم ميزات مبتكرة وتحديات للممارسات التقليدية.
الذكاء الاصطناعي يُحول بشكل كبير التعاون عن بُعد بين الفرق، خاصة من خلال تحسين أدوات المؤتمرات المرئية.
تبقى المسرحيات كما هي، لكن القواعد قد تغيرت بشكل كبير—إليك ما يهم حقًا الآن.
ثورة تركيب الفيديو بالذكاء الاصطناعي تُحدث تحولًا كبيرًا في الترجمة الفورية للغات في الفيديوهات، مُكسرة حواجز التواصل في عصر العولمة السريع والتواصل المتزايد، تظل حواجز اللغة تشكل تحديًا كبيرًا أمام التواصل السلس وتبادل المعلومات
تُعد استحواذ شركة ميتا الأخير على Manus AI علامة بارزة في التوسع الاستراتيجي لعملاق التكنولوجيا نحو قطاع الذكاء الاصطناعي المؤسسي.
الذكاء الاصطناعي (AI) يعيد تشكيل عملية إنشاء وتحسين المحتوى تدريجياً، مُحدثًا تغييرًا مهمًا في نهج المسوقين تجاه استراتيجيات تسويق المحتوى.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today