शी जिनपिंग और जो बाइडेन का एआई और परमाणु युद्ध पर ऐतिहासिक समझौता
Brief news summary
2024 के अंत में, अमेरिका के राष्ट्रपति जो बाइडेन और चीन के राष्ट्रपति शी जिनपिंग ने एक महत्वपूर्ण समझौता किया जिसमें यह घोषित किया गया कि कृत्रिम बुद्धिमत्ता (एआई) को न्यूक्लियर लॉन्च निर्णयों को निर्धारित नहीं करना चाहिए। यह महत्वपूर्ण सहमति ट्रैक II अमेरिका-चीन संवाद पर पांच वर्षों की चर्चाओं से उभरी, जो ब्रूकिंग्स इंस्टीट्यूशन और त्सिंगहुआ विश्वविद्यालय द्वारा आयोजित की गई थी। इस संवाद ने ऐतिहासिक शीत युद्ध के घटनाक्रमों से सबक लिए, जैसे 1962 का क्यूबाई मिसाइल संकट और 1983 की झूठी अलार्म की घटना, जिन्होंने न्यूक्लियर परिदृश्यों में एआई द्वारा उत्पन्न खतरों को उजागर किया। क्यूबाई संकट के दौरान, राष्ट्रपति केनेडी ने आपदा को टालने के लिए सफलतापूर्वक कूटनीतिक चैनलों का इस्तेमाल किया, जबकि सोवियत अधिकारी स्टानिस्लाव पेट्रोव ने झूठी अलार्म को पहचानकर तबाही को रोका। ये घटनाएँ न्यूक्लियर कमान में मानव निर्णय के महत्वपूर्ण भूमिका और स्वचालित प्रणाली के खतरों पर जोर देती हैं। बाइडेन-शी का समझौता न्यूक्लियर निर्णय लेने में मानव निगरानी की आवश्यकता पर बल देता है ताकि वैश्विक सुरक्षा को मजबूत किया जा सके और मानवता के भविष्य की रक्षा की जा सके।2024 के अंत में, चीनी राष्ट्रपति शी जिनपिंग और अमेरिकी राष्ट्रपति जो बाइडेन के बीच एक महत्वपूर्ण समझौता हुआ कि आर्टिफिशियल इंटेलिजेंस (AI) को कभी भी परमाणु युद्ध शुरू करने का अधिकार नहीं दिया जाना चाहिए। यह महत्वपूर्ण नीति निर्णय ब्रोकिन्स संस्थान और त्सিংhua विश्वविद्यालय द्वारा आयोजित ट्रैक II अमेरिका-चीन संवाद पर आर्टिफिशियल इंटेलिजेंस और राष्ट्रीय सुरक्षा के पांच वर्षों की वार्ता से उभरा। शीत युद्ध के दौरान अमेरिका-सोवियत प्रतिद्वंद्विता के ऐतिहासिक केस अध्ययन बताते हैं कि यदि AI ऐसी महत्वपूर्ण निर्णय लेने के लिए मौजूद होता, तो संभावित तबाही हो सकती थी, जो परमाणु संदर्भों में मानव जागरूकता की अनिवार्य भूमिका को उजागर करता है। इस बिंदु को दर्शाने के लिए तीन महत्वपूर्ण घटनाएं हैं: 1. **क्यूबा मिसाइल संकट (1962)**: जब अमेरिकी खुफिया ने क्यूबा के लिए सोवियत मिसाइल शिपमेंट का पता लगाया, तो अधिकांश सलाहकारों ने तुरंत हवाई हमलों की सिफारिश की, जिससे वृद्धि हो सकती थी। राष्ट्रपति जॉन एफ. केनेडी ने इसके बजाय एक नौसैनिक क्वारंटाइन और कूटनीतिक वार्ताओं को चुना, जिससे क्यूबा से सोवियत मिसाइलों के हटने को प्रोत्साहित करके आपदा से बच गए। 2.
**सितंबर 1983 की फॉल्स-एलार्म संकट**: सोवियत अधिकारी स्टानिस्लाव पेत्रोव एक स्थिति का सामना कर रहे थे जहां सेंसर ने गलती से एक आने वाले अमेरिकी मिसाइल हमले का संकेत दिया। तत्काल प्रतिवाद करने के बजाय, उन्होंने सही ढंग से निष्कर्ष निकाला कि डेटा गलत था, जिससे संभावित परमाणु युद्ध को रोका गया—एक अंतर्ग्रहीय निर्णय जिसे उस दौर के सैन्य सिद्धांत के तहत एक AI प्रणाली नहीं कर सकती थी। 3. **NATO का एबल आर्चर अभ्यास (नवंबर 1983)**: यह सैन्य अभ्यास तनाव को बढ़ा दिया, क्योंकि सोवियत नेताओं को डर था कि यह एक वास्तविक हमले को छुपा रहा है। एक अमेरिकी जनरल ने स्थिति के गलत समझ के संभावितता को पहचाना और उकसाव वाली कार्रवाइयों से बचने की सलाह दी, जो प्रोटोकॉल के पालन पर मानव विवेक को दर्शाता है। इन परिदृश्यों में, AI संभावित रूप से खतरे के स्तरों की गलत व्याख्याओं के आधार पर परमाणु हमले शुरू कर सकता था। शी और बाइडेन द्वारा AI को परमाणु हथियार लॉन्च करने से रोकने का निर्णय उच्च जोखिम वाले स्थितियों में मानव निर्णय की आवश्यकता को रेखांकित करता है। जबकि उन्नत AI मानव निर्णय लेने में सहायता कर सकता है, ऐसी महत्वपूर्ण विकल्पों के लिए मशीनों पर निर्भरता महत्वपूर्ण जोखिम उठाती है। भविष्य के नेताओं को परमाणु युद्ध के निर्णयों में AI की शक्ति के खिलाफ इस महत्वपूर्ण स्थिति को बनाए रखने के लिए प्रोत्साहित किया जाता है।
Watch video about
शी जिनपिंग और जो बाइडेन का एआई और परमाणु युद्ध पर ऐतिहासिक समझौता
Try our premium solution and start getting clients — at no cost to you