نصائح إريك شميدت المثيرة للجدل بشأن أخلاقيات الذكاء الاصطناعي تثير نقاشًا حول حقوق النشر والاستخدام العادل في وادي السيليكون
Brief news summary
في أبريل 2024، نصح إريك شميدت، المدير التنفيذي السابق لشركة جوجل، طلاب جامعة ستانفورد الذين يطلقون شركات ناشئة في وادي السيليكون بأن يكونوا مستعدين لتجاوز الحدود الأخلاقية، لا سيما في تطوير الذكاء الاصطناعي. تأتي هذه النصيحة في ظل وجود 19 دعوى قضائية تستهدف شركات الذكاء الاصطناعي التوليدي مثل OpenAI و Anthropic بتهمة انتهاك حقوق النشر، حيث قاموا بتدريب نماذج الذكاء الاصطناعي على كتب ووسائط محمية بحقوق النشر دون الحصول على إذن. أوصى شميدت في البداية ببناء نماذج أولية للذكاء الاصطناعي عن طريق تحميل مجموعات بيانات ضخمة، وطلب المشورة القانونية فقط بعد تحقيق النجاح، مسلطًا الضوء على أولوية الابتكار في وادي السيليكون على الالتزام الصارم بقوانين حقوق النشر. تستخدم هذه الشركات الذكاء الاصطناعي "الاستخدام العادل" لتبرير ممارساتها في جمع البيانات، لكنها في ذات الوقت تفرض قيودًا صارمة على إعادة استخدام المحتوى الذي تنتجه نماذج الذكاء الاصطناعي، مما يكشف عن تناقض في المعايير. تكشف مستندات داخل الشركات عن وعي بوجود معارضة من قبل المبدعين ورفض مقترحات تقاسم الأرباح. يجادل النقاد بأن تدريب الذكاء الاصطناعي يستغل مواد محمية بحقوق النشر بشكل غير عادل دون تعويض المبدعين الأصليين، وأحيانًا يعيد إنتاج محتوى بشكل قريب. تدعو أصوات من الصناعة، مثل إيد نيوتن-ريك، نائب رئيس شركة Stability AI السابق، إلى استخدام بيانات مرخصة بدلاً من ذلك. في الوقت نفسه، تحرص الشركات الكبرى في التكنولوجيا على حماية حقوق الطبع والنشر لبرمجياتها بشكل صارم، لكنها تتغافل عن حماية حقوق الفنانين الذين يُعد عملهم وقودًا لتطوير الذكاء الاصطناعي. بشكل عام، تفضل ثقافة وادي السيليكون الابتكار السريع غالبًا على الالتزام بالأعراف الأخلاقية والقانونية.في أبريل 2024، قدم إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل ومدافع عن الذكاء الاصطناعي، محاضرة خاصة في ستانفورد، أكد خلالها على أهمية أن يكون رواد أعمال وادي السيلكون مستعدين لتجاوز الحدود الأخلاقية. على الرغم من وجود 19 دعوى قضائية ضد شركات الذكاء الاصطناعي التوليدي مثل أنثيروبك وOpenAI بتهمة انتهاك حقوق النشر عن كتب ووسائط تم استخدامها لتدريب النماذج، نصح شميدت الطلاب بتنزيل المحتوى بحرية لبناء النماذج الأولية، ملمحًا إلى أن المشكلات القانونية يمكن حلها لاحقًا إذا نجحت المنتجات. نشرت ستانفورد الفيديو مؤقتًا على يوتيوب في أغسطس 2024، ولكنها أزالته في اليوم التالي دون إبداء أي تعليق. يعكس موقف شميدت الصريح نمطًا شائعًا في وادي السيلكون غالبًا ما يُخفي وراء حجج قانونية أو فلسفية. واستشهد متحدث باسمه باعتقاد شميدت بـ"الاستخدام العادل" كمحرك للابتكار، مشيرًا إلى شعار الحرية التكنولوجية "المعلومات تريد أن تكون مجانية"، الذي يعتبر المعلومات موردًا يجب أن يتدفق دون قيود. ومع ذلك، نادرًا ما ينطبق هذا المبدأ على المعلومات الخاصة بوادي السيلكون—كالبيانات الشخصية والبرمجيات—التي تحظى بحماية قوية. فكثير من البرمجيات، مثل فوتوشوب وخوارزمية البحث في جوجل أو تصميم هاتف آيفون من آبل، مسجلة ببراءة اختراع وتدافع عنها فرق قانونية قوية. وتخوض صناعة التكنولوجيا معارك قضائية عالية المخاطر بشأن حقوق الملكية الفكرية: حيث سويت شركة وايمو دعوى بقيمة 245 مليون دولار ضد أوبر حول سرّ تقنية السيارات ذاتية القيادة، وفازت آبل بأكثر من مليار دولار من سامسونج بعد معركة براءات اختراع استمرت سنوات، وكذلك قامت آبل وكوالكم برفع العديد من الدعاوى ضد بعضهما في جميع أنحاء العالم. وفي السباق لتطوير الذكاء الاصطناعي التوليدي، استهدفت الشركات صناعات أقل استعدادًا بشكل عدواني، حيث تقوم بتدريب نماذج الذكاء الاصطناعي على قواعد بيانات ضخمة غالبًا ما تحتوي على محتوى محمي بحقوق النشر. تبرر الشركات ذلك بطرق مختلفة: تذكر OpenAI أنهم يستخدمون بيانات متاحة للجميع فقط؛ وتقول أنثيروبك إنها تستخدم كتبًا، ولكن بشكل غير تجاري؛ وتقبل Meta باستخدام الكتب بشكل تجاري، وتصف ذلك بأنه "استخدام عادل جوهري".
ومع ذلك، ترفض هذه الشركات مزاعم الاستخدام العادل عند حماية إبداعاتها الخاصة، حيث تمنع OpenAI المستخدمين من تدريب نماذج منافسة على مخرجات ChatGPT؛ لدى أنثيروبك وجوجل وxAI قواعد مماثلة — بمعنى "يمكننا أن ندرب على عملك، لكنك لا يمكنك أن تدرب على عملنا". وبينما تفسر الضغوط السوقية هذه المعايير self-serving، فإن التناقضات بين الأفعال والقيم المعلنة واضحة جدًا. على سبيل المثال، تسمي Meta نماذجها "مفتوحة" لكنها تمنع النسخ على الإنترنت، وتطالب بحذف النسخ الموجودة، وهذه المواقف تتناقض مع عادة المصادر المفتوحة. قيمة بيانات التدريب واضحة: ففي 2021، كتب الرئيس التنفيذي لأنثروبك، داريو أموداي، عن تعويض منتجي البيانات بحصص من الأرباح أو بأسهم لتجنب رد فعل منشئي المحتوى الذي قد يعيق تقدم الذكاء الاصطناعي. ومع ذلك، أصبحت أنثيروبك الآن ترى أن استخدام الأعمال المحمية بحقوق النشر هو استخدام عادل، يمنح المبدعين حقوقًا لا شيء، وتركت تعليقًا حول هذا التناقض. وتجادل الشركات بأن مخرجات الذكاء الاصطناعي أصلية، وليست مشتقة من بيانات التدريب، لكن التقارير تظهر أن روبوتات الدردشة ومنشئي الصور يمكنهم تكرار نسخ شبه مطابقه من أعمال مثل هاري بوتر أو الأعمال الفنية الموجودة. قامت الشركات بتقليل من قيمة هذه المسائل، بل واستندت أحيانًا إلى مخاوف "سباق الذكاء الاصطناعي" الجيوسياسية لتبرير مطالب الاستخدام العادل بشكل واسع — حيث حذرت OpenAI من أن بدون وصول مريح لهذه البيانات، ستخسر أميركا سباق الذكاء الاصطناعي. وليس كل المطلعين يتفقون. استقال إيد نوتون-ريكس، نائب الرئيس السابق لشركة Stability AI، في أواخر 2023، منتقدًا تدريب الذكاء الاصطناعي الحالي باعتباره غير متوافق مع الاقتصادات الإبداعية القائمة على حقوق النشر، وأسس مبادرة "Fairly Trained"، التي تُعتمد عليها نماذج الذكاء الاصطناعي المدربة على بيانات مرخصة بشكل صحيح. وفي الوقت ذاته، لطالما عانت وادي السيلكون من سرقة حقوق الملكية الفكرية من خلال قرصنة البرمجيات، مما دفع بعض الشركات إلى تغيير نماذج التوزيع: فشركة أدوبي ومايكروسوفت الآن يتطلبان اشتراكًا مع التحقق من الترخيص، وGoogle لا تقدم عمليات تنزيل. تحمي هذه الطرق حقوق الملكية، لكنها غير متاحة لكثير من المبدعين الذين يستغل عملهم شركات الذكاء الاصطناعي. وهذا التمييز المزدوج يثير الشكوك حول مزاعم وادي السيلكون بشأن الاستخدام العادل—هل هي مبادئ صادقة أم تغطية قانونية؟ فالذكاء الاصطناعي التوليدي يطرح بالفعل أسئلة جديدة حول حقوق النشر، لكن أساليب الصناعة العدوانية — السرعة، كسر الأمور، والاعتماد على المحامين لحل المشكلات — تعكس قواعد عمل وادي السيلكون التقليدية أكثر من كونه ابتكارًا مبنيًا على مبادئ.
Watch video about
نصائح إريك شميدت المثيرة للجدل بشأن أخلاقيات الذكاء الاصطناعي تثير نقاشًا حول حقوق النشر والاستخدام العادل في وادي السيليكون
Try our premium solution and start getting clients — at no cost to you