هل شركات الذكاء الاصطناعي تحمي البشرية بشكل كافٍ من مخاطر الذكاء الاصطناعي؟ وفقًا لتقرير تقييم جديد صادر عن معهد مستقبل الحياة، وهو منظمة غير ربحية في وادي السيلكون، فإن الإجابة على الأرجح لا. مع تزايد اعتماد الإنسان على التكنولوجيا المدعومة بالذكاء الاصطناعي، تظهر مخاطر محتملة تتنوع بين استخدام الأشخاص للدردشات الآلية للاستشارة والانتحار، إلى الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي. وتلوح في الأفق مخاطر مستقبلية تشمل استخدام الذكاء الاصطناعي في الأسلحة أو محاولة زعزعة استقرار الحكومات. ومع ذلك، لا توجد حوافز كافية لشركات الذكاء الاصطناعي لت priorit safety global. يسلط مؤشر سلامة الذكاء الاصطناعي الذي أصدره المعهد حديثًا الضوء على هذه المشكلة، والذي يهدف إلى توجيه تطوير الذكاء الاصطناعي نحو نتائج أكثر أمانًا وتقليل التهديدات الوجودية. أشار Max Tegmark، رئيس المعهد وأستاذ في معهد ماساتشوستس للتكنولوجيا، إلى أن شركات الذكاء الاصطناعي تعمل كصناعة واحدة في الولايات المتحدة تنتج تقنية قوية بدون تنظيم، مما يخلق "سباق إلى قاع" حيث يُهمل الأمان غالبًا. كانت أعلى الدرجات التي حصل عليها المؤشر هي C+، منحت لكل من OpenAI، مطور ChatGPT، و Anthropic، المعروفة بمشغيل روبوتها Claude. وحصل قسم الذكاء الاصطناعي في شركة Google، Google DeepMind، على درجة C. أما الدرجات الأدنى فشملت D لشركة Meta (شركة فيسبوك الأم) وxAI التي أسسها إيلون ماسك، والواقعة بالقرب من بالو ألتو. كما منحت شركات صينية مثل Z. ai وDeepSeek درجة D. وتلقى Alibaba Cloud أدنى تصنيف، D-. تم تقييم الشركات بناءً على 35 مؤشرًا عبر ست فئات، مثل السلامة الوجودية، تقييم المخاطر، ومشاركة المعلومات. تم الاعتماد على بيانات متاحة علنًا وإجابات استبيانات الشركات، والتي قيّمها ثمانية خبراء في الذكاء الاصطناعي يشملون أكاديميين وقادة منظمات. ومن اللافت أن جميع الشركات حصلت على درجات أقل من المتوسط في السلامة الوجودية، التي تقيس الضوابط الداخلية والاستراتيجيات لمنع سوء الاستخدام الكارثي للذكاء الاصطناعي.
وذكر التقرير أنه لم تُظهر أي شركة خططًا موثوقة لمنع فقدان السيطرة أو سوء الاستخدام الجسيم مع تقدم الذكاء الاصطناعي نحو الذكاء العام والذكاء الخارق. أكد كل من Google DeepMind وOpenAI التزامهما بالسلامة، حيث ركزت OpenAI على استثمارها في أبحاث السلامة المتطورة، والاختبارات الدقيقة، ومشاركة أطر السلامة لرفع معايير الصناعة. وأبرزت Google DeepMind نهجها العلمي في السلامة وبروتوكولاتها لتقليل المخاطر الخطيرة من نماذج الذكاء الاصطناعي المتقدمة قبل أن تتجسد. وعلى النقيض، أشار المعهد إلى أن شركتي xAI وMeta تملكان أطر إدارة مخاطر، لكنهما تفتقدان الالتزامات الكافية للرقابة أو استثمارات واضحة في أبحاث السلامة. كما أن شركات مثل DeepSeek وZ. ai وAlibaba Cloud تفتقر إلى وثائق استراتيجية السلامة العامة. ولم ترد شركات Meta وZ. ai وDeepSeek وAlibaba وAnthropic على الطلبات للتعليق. وصف xAI التقرير بأنه "كذب من وسائل الإعلام القديمة"، ولم يرد محامو ماسك على استفسارات أخرى. رغم أن ماسك يعتبر مستشارًا ويمول معهد مستقبل الحياة، إلا أنه لم يكن من المشاركين في إعداد مؤشر سلامة الذكاء الاصطناعي. عبّر Tegmark عن قلقه من أن نقص التنظيم قد يمكن الإرهابيين من تطوير أسلحة بيولوجية، أو زيادة القدرة على التلاعب مقارنة بالمستويات الحالية، أو زعزعة استقرار الحكومات. وأكد أن حل هذه المشكلات أمر بسيط: وضع معايير ملزمة لسلامة شركات الذكاء الاصطناعي. بينما تسعى بعض الجهود الحكومية لتعزيز الرقابة على الذكاء الاصطناعي، فإن جماعات الضغط التكنولوجية عارضت تنظيم مثل هذه القوانين، خوفًا من إبطاء الابتكار أو انتقال الشركات إلى مناطق أخرى. ومع ذلك، تعتبر تشريعات مثل قانون SB 53 في كاليفورنيا، الذي وقعه حاكم الولاية غافن نيوسوم في سبتمبر، خطوة نحو الشفافية، حيث يفرض على الشركات الكشف عن بروتوكولات السلامة والأمان والإبلاغ عن حوادث مثل الهجمات الإلكترونية. يرى Tegmark أن هذا القانون خطوة إيجابية، لكنه يواصل التأكيد على ضرورة اتخاذ إجراءات أكبر بكثير. وجد المحلل الرئيسي في مجموعة Enderle، Rob Enderle، أن مؤشر سلامة الذكاء الاصطناعي هو نهج مقنع لتحديات تنظيم الذكاء الاصطناعي، لكنه شكك في قدرة الإدارة الأمريكية الحالية على تنفيذ تنظيم فعال. حذر من أن قواعد غير مُحكمة قد تتسبب في ضرر، وعبّر عن شكه في وجود آليات حالية لضمان الامتثال. ختامًا، يكشف مؤشر سلامة الذكاء الاصطناعي أن كبار مطوري الذكاء الاصطناعي لا يزالون يفتقرون إلى التزامات صارمة بالسلامة، مما يبرز الحاجة الملحة إلى تنظيم أقوى لحماية البشرية من المخاطر المتزايدة الناتجة عن الذكاء الاصطناعي.
مؤشر سلامة الذكاء الاصطناعي يكشف أن الشركات الكبرى في مجال الذكاء الاصطناعي تفشل في حماية البشرية بشكل كافٍ من مخاطر الذكاء الاصطناعي
AIMM: إطار مبتكر قائم على الذكاء الاصطناعي للكشف عن التلاعب في سوق الأسهم من خلال وسائل التواصل الاجتماعي في بيئة التداول في سوق الأسهم التي تتغير بسرعة اليوم، برزت وسائل التواصل الاجتماعي كمصدر رئيسي يشكل ديناميات السوق
شركة التكنولوجيا القانونية فايلفاين قامت بالاستحواذ على شركة بينسايتس، المختصة في تحسين العقود باستخدام الذكاء الاصطناعي، مما يعزز حضورها في قوانين الشركات والمعاملات ويطور استراتيجيتها المرتكزة على الذكاء الاصطناعي.
الذكاء الاصطناعي (AI) يعيد تشكيل مجال تحسين محركات البحث (SEO) بسرعة، ويوفر للمسوقين الرقميين أدوات مبتكرة وفرصًا جديدة لتحسين استراتيجياتهم وتحقيق نتائج متفوقة.
لقد لعبت التقدمات في الذكاء الاصطناعي دورًا حاسمًا في مكافحة المعلومات المضللة من خلال تمكين إنشاء خوارزميات متطورة مصممة للكشف عن الفيديوهات المزيفة بشكل عميق—وهو نوع من الفيديوهات المعدلة أو التي استُبدل فيها المحتوى الأصلي لإنتاج تمثيلات كاذبة تهدف إلى خداع المشاهدين ونشر معلومات مضللة.
صعود الذكاء الاصطناعي حول مبيعاتنا من خلال استبدال الدورات الطويلة والمتابعات اليدوية بأنظمة آلية سريعة تعمل على مدار الساعة.
في عالم الذكاء الاصطناعي (AI) والتسويق الذي يتطور بسرعة، تضع التطورات المهمة الأخيرة صناعة التكنولوجيا في مسار جديد، مقدمةً فرصًا وتحديات على حد سواء.
ذكرت النشرة أن الشركة حسّنت "هامش الحوسبة"، وهو مقياس داخلي يُعبّر عن الجزء من الإيرادات المتبقي بعد تغطية تكاليف نماذج التشغيل للمستخدمين الملقّمين لمنتجاتها المؤسسية والمستهلكين.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today