अमेरिकी हाउस में एक विधेयक के पास होने के बाद, जिसके द्वारा टिकटॉक पर प्रतिषेध लगाया जाएगा, बिल महर ने इस मामले पर अपने विचार साझा करने में वक्त बर्बाद नहीं किया। HBO के रियल टाइम के नवीनतम एपिसोड में, महर ने अपने मोनोलॉग में चीन के विनिर्माण पर जोक बनाए और बच्चों की शिक्षा पर प्रभाव पर टिकतोक के बारे में हंसीकर बातें की। विधेयक, जिसे सदन में 352-65 के वोट से पारित किया गया, यदि उसके चीन स्थित मालिक ByteDance इसे नहीं बेचता है, तो इस प्रसिद्ध वीडियो ऐप को राष्ट्रव्यापी रूप से प्रतिष्ठान से बैन करने का उद्देश्य रखता है। सांसदों ने कंपनी के स्वामित्व संरचना के मामले में राष्ट्रीय सुरक्षा की संभावित धमकी के रूप में संबंधित चिंताएं उठाई हैं। राष्ट्रपति जो बाइडेन ने इस बिल का समर्थन व्यक्त किया है, लेकिन इसे अभी सेनेट में मंजूरी प्राप्त करनी होगी। रियल टाइम पर बाद में, महर ने गठबंधन के अलग-अलग पक्षों से सियासी नेताओं की विरोधी भूमिका पर फिर से चर्चा की। उन्होंने विधेयक के खिलाफ खड़े होने वाले नैंसी मेस, रो खन्ना, डोनाल्ड ट्रंप, सांसद अलेक्जांड्रिया औकासियो-कॉर्टेज और सांसद मार्जरी टेलर ग्रीन के बारे में सवाल उठाए। चर्चा के दौरान, खन्ना ने प्रथम संशोधन और स्वतंत्रता के अहमियत का उल्लेख किया, लेकिन साथ ही उन्होंने कहा कि संसद को टिकटॉक को प्रतिबंधित करने की बजाय डेटा गोपनीयता कानून को लागू करने पर ध्यान केंद्रित करना चाहिए। महर ने मुकर दिया कि बोलने की स्वतंत्रता के विरोधार्थीता से सहमत है, लेकिन वह यह भी संकेत दिया कि उन्हें AI द्वारा संभावित धमकियॉं से अधिक चिंता है। उन्होंने देश में पहला ट्रिलियनेयर बनने की संभावना रखने वाले AI उद्यमी के रिश्क और भारतीय विदेश मंत्रालय द्वारा पहचाने गए AI के खतरों की बात की। इसके अतिरिक्त, महर ने AI प्रौद्योगिकी में खामियों की मुद्दे को उठाया और पूर्व में व्यापक ख़ासी AI प्रौद्योगिकी को जारी करने से पहले क्या परहेज़ लिए जाते हैं यह सवाल उठाया। उन्होंने सुझाव दिया कि प्रोटेक उद्योग को इन चिंताओं का सामान्य करना चाहिए AI प्रौद्योगिकी जारी करने से पहले। रियल टाइम पर बातचीत ने हॉलीवुड सहित विभिन्न उद्योगों में AI के उपयोग और नौकरियों पर उसके संभावित प्रभाव पर भी चर्चा की। पूर्व अमेरिकी वकील महासचिव एरिक होल्डर भी एक एक-प्रति साक्षात्कार के लिए इस एपिसोड में दिखाई दिए।
कृत्रिम बुद्धिमता (AI) हमारे जीवन के विभिन्न पहलुओं, समेत कानूनी प्रणाली पर महत्वपूर्ण प्रभाव डालती है। AI का उपयोग गहरा ज्ञान तकनीकी दृष्टि से अश्लीलता भरी छवियों को बनाने, संगीत उत्पन्न करने, ड्राइवरलेस रेस कारों का विकसित करने और भ्रामक सूचना फैलाने में किया जाता है। इसने यह भी बढ़ाया है कि कानूनी विवादों में उपयोग होने वाले झूठे कानूनों का उदय हो रहा है। यह विश्वव्यापी कानूनी प्रणाली में कानूनादिकों के सम्प्रदाय में कानूनीता, नैतिकता और विश्वास के संबंध में चिंताओं को उठा रहा है। स्रष्टात्मक AI, परिवर्तनात्मक संभावना के साथ एक शक्तिशाली उपकरण है, बड़े डेटासेट पर प्रशिक्षित होता है और नई सामग्री बना सकता है। हालांकि, इस सामग्री में AI मॉडल "हालुसिनेट" करने या अपने प्रशिक्षण डेटा में रिक्त स्थानों को भरने की वजह से अच्छाई की कमी हो सकती है। जब AI द्वारा उत्पन्न अच्छाई की कमी वाली सामग्री को कानूनी प्रक्रियाओं में उपयोग किया जाता है, तो यह समस्यात्मक हो जाता है, विशेष रूप से जब यह वक्त की दबाव के साथ वकीलों और कानूनी सेवाओं तक की पहुंच पर प्रतिबंधित होता है। कानूनी शोध और दस्तावेज़ की तत्परता से गड़बड़ी करने से न्याय के प्रशासन पर जनमेहनत को कमजोरी हो सकती है और कानूनिक पेशेवरता के लिए प्रतिष्ठा समस्याओं को उत्पन्न कर सकती है। AI द्वारा उत्पन्न झूठे मामलों के उदाहरण पहले से ही हो चुके हैं, जिनसे तबादले, नियमों का उल्लंघन, जुर्माना और सार्वजनिक परीक्षा होती है। दुनिया भर के कानूनी नियामक और अदालतें निजिकार दिया हैं उत्सर्जनात्मक AI के उचित उपयोग पर निर्देश, मत और आदेश जारी करके। ऑस्ट्रेलिया में, नियमित तकनीकी योग्यता आवश्यकताओं के माध्यम से नैतिक उपयोग को विकसित करने और प्रोत्साहित करने के लिए दिशानिर्देश बनाने के प्रयास किए गए हैं। वकीलों द्वारा सृजनात्मक AI के नैतिक उपयोग के लिए स्पष्ट आवश्यकताएं और मार्गदर्शन, कानूनिक पेशेवरता और न्याय प्रशासन में जनसंचार को बढ़ावा देने की प्रतीक्षा करती हैं। [मूल स्रोत: The Conversation]
हाल के शाही फोटो विवाद में प्रिंसेस कैथरीन और उनके बच्चों की फ़ोटोशॉप की गई चित्र की भूमिका से संदेह बढ़ने लगा है और आधुनिक शासन को सार्वजनिक और निजी जीवन को संतुलित करने की चुनौतियों का प्रदर्शन किया है। इस घटना ने विशेष रूप से भरोसा और पारदर्शिता के मुद्दे उठाए हैं, विशेषकर Artificial Intelligence (AI) के युग में जहां असली और संकेतशाली सामग्री को पहचानना लगभग असंभव हो रहा है। जेनरेटिव AI छवियों का प्रभाव, जो वायरल हो सकता है और राजनैतिक विभाजन को बढ़ा सकता है, एक महत्वपूर्ण चिंता है। उन्नत तथ्य जांच के बावजूद, भ्रमण की जानकारी फैल सकती है और हथियार के रूप में इस्तेमाल की जा सकती है। विश्वव्यापी चुनावों के साथ-साथ, विदेशी हस्तक्षेप और भ्रामक जानकारी की धमकी विशेष रूप से ऊच्च है। AI-द्वारा मिथ्या और भ्रामक जानकारी के पैदावार के संभावित खतरे, कुछ समाजों में हिंसा के कारण गलत अफवाहों के फैलने द्वारा दिखाए गए हैं। मनियोपूर में हिंसा के लिए झूठी अफवाहों के प्रसार के तुलना में, मानदंडों की विवादित शाही फोटो से, AI द्वारा भ्रमण और हिंसा को बढ़ाने के और अधिक महत्वपूर्ण खतरे मुकाबला करना पड़ सकता है। जबकि AI प्रौद्योगिकी की प्रगति हो रही है, लोकतांत्रिक देशों को बढ़ती हुई चुनौतियों का सामना करना होगा।
रेडिट ने शुक्रवार को खुलासा किया कि उसे फेडरल ट्रेड कमीशन (FTC) से एक पत्र प्राप्त हुआ है जो AI सिस्टम्स को प्रशिक्षित करने के सन्दर्भ में उसके डेटा-लाइसेंसिंग व्यापार के संबंध में है। कंपनी ने अपडेटेड आईपीओ प्रास्पेक्टस में उल्लिखित किया है कि FTC एक गैर-सार्वजनिक जांच का निर्धारित कर रही है जो विशेष रूप से AI मॉडल प्रशिक्षण के लिए तृतीय पक्षों के साथ उपयोगकर्ता-उत्पन्न सामग्री की बिक्री, लाइसेंस या साझा करने पर ध्यान केंद्रित है। जबकि रेडिट मुख्य रूप से ऑनलाइन विज्ञापन पर निर्भर होता है, यह राजस्व उत्पन्न करने के लिए अन्य रास्ते खोज रही है और अपने डेटा लाइसेंसिंग प्रयासों की प्रारंभिक चरण में है। रेडिट ने आश्वासन दिया है कि ये प्रयास उसके मूल्यों और उपयोगकर्ताओं के अधिकारों के साथ मेल खाते हैं। कंपनी ने कहा है कि FTC की इस मामले में रुचि कोई असरदार नहीं है क्योंकि शाकाहारी प्रौद्योगिकी और वाणिज्यिक समझौतों की अद्वितीय प्रकृति होने के कारण। यह भी मान्यता दी है कि नियामकों के साथ निपटना अनिश्चितकालिक और अपूर्व हो सकता है, वहाँ बड़े पैमाने पर खर्चों, जांचों और उत्पादों और नीतियों में परिवर्तन का सामना करने की संभावना हो सकती है। रेडिट का आईपीओ, जिसका मूल्यांकन लगभग 6
बुढ़ापा 1: कृपया मुझे हिंदी में ऐसे उन्नत बताते हुए टेक्स्ट दें जिसमें न केवल आपदाकालीनता की हानि कम हो बल्कि इसमें कोई भी हानि न हो। धन्यवाद। Translation: आर्टिफिशियल इंटेलिजेंस (AI) की उभरती हुई वृद्धि महिलाओं की सुरक्षा के लिए एक वृद्धि का खतरा प्रस्तुत करती है, गैर-सहमति के डीपफ़ेक पोर्न और हिंसात्मक छवि की मान्यता का बढ़ता प्रसार होता है। विधि आवर्ती औऱ इन मसलों का समाधान करने के लिए कानून प्रस्तुत किए जा रहे हैं, लेकिन इन कार्रवाईयों की गति और प्रयोजन को लेकर सवाल बने रहते हैं। गहनवारण विधानों की कमी के कारण डीपफेक पोर्न के शिकारों के लिए सुरक्षा में एक ही रिक्ति पैदा होती है। हालांकि, "संतुलित अभिज्ञान चित्रों के प्रति गहनवारणा को रोकने वाला कानून" और "डीफ़िएंस परिघानाओं का कानून" जैसे प्रस्तावित विधानों का उद्देश्य अपराधियों को सजा देना और गैर-सहमति के डीपफ़ेक पोर्न को रोकना है। राज्यों की विधानमंडली भी कार्रवाई कर रही है, AI से संबंधित उपबंधों पर लगभग आधी संख्या का ध्यान देती है। महिलाओं की सुरक्षा के लिए अद्यतित नियम और इंटरनेट पर मजबूत सुरक्षा बाधाओं की आवश्यकता आपातकालीन है।
"देवी शो" के लूइस ब्लैक ने हाल ही में कृत्रिम बुद्धिमत्ता (AI) के साथ संबंधित उत्पादन उपयोगिता की चिंताएँ पर टिप्पणी की, विशेष रूप से "गूगल एआई छवि जेनरेटर टूल" के संदर्भ में। ब्लैक ने इस टूल की शिकायतों पर ध्यान दिया जिसमें यह उपकरण अक्सर ऐसे परिदृश्यों में बीआईपीओसी व्यक्तियों की छवियाँ रखता है जो अनुचित माने जाते हैं, जैसे की काले आदमी या एशियाई महिला को जर्मन द्वितीय विश्वयुद्ध सैनिक के रूप में चित्रित करना। उन्होंने मजाक में पूछा कि काला नाजी दिखाने का क्या मकसद है, क्योंकि उस समय कन्ये वेस्ट मौजूद नहीं थे। ब्लैक ने वृद्धि युद्ध फिल्मों में विविधता की आवश्यकता पर अपने विचारों को साझा करके सेगमेंट की शुरुआत की, वह मजाकिय ढंग से कह रहे थे, "ये गेस्टापो कुछ विविधता का उपयोग कर सकते हैं!" उन्होंने एक काले जॉर्ज वाशिंगटन की विचारधारा को मजाकिय ढंग से हल्काया, देखी गई एक फिल्म में जहां उन्होंने उसके दास और दास के मालिक दोनों की भूमिका निभाई। ब्लैक ने स्वीकार किया कि लिन मैनुएल मिरांडा ने पहले ही एक काले वाले जोर्ज वाशिंगटन का प्रदर्शन किया है और फिर उन्होंने प्रथम राष्ट्रपति के "सेंटौर" संस्करण की सिफारिश की। एक मजेदार तरीके में, ब्लैक ने भी संक्षेप मशीन में याद रखने में समस्या है और जोकरता है कि यह भविष्य को भी नष्ट कर देगा, जिसे वह "एआई की ग़लत तरीके से चुदकर वाकई में तोड़ देगा” का कहींकार करते हैं। उन्होंने मजाकिय ढंग से पूछा कि ऐसी अत्यधिक राजनीतिक सहीता पर लगाम कौन लगा सकता है, जिसके परिणामस्वरूप इलॉन मस्क के एआई टूल "ग्रोक" के बारे में एक क्लिप आया, जिसे "एंटी-वोक" चैटबॉट के रूप में बयान किया गया। ब्लैक ने मजाकिय ढंग से अपने मनोवृत्ति के बारे में संदेह व्यक्त किया है कि मस्क इस मुद्दे को हल करने में समर्थ रहेंगे, जबकि उन्होंने इज्जतनवाई कार हादसों से संबंधित इजाजत के साथ जानकारी के सभी मामलों का उल्लेख किया। उन्होंने तब AI छवि जेनरेटर की वास्तविक समस्या की चर्चा की, जो बताते हैं कि AI जब मानवता के सभी ज्ञान को दाखिल करता है, तो यह अक्सर चौंकाने वाले स्तर पर जातिवाद की मात्रा का परिणाम होता है। ब्लैक ने फ्रांसीन लैक्क्वा द्वारा "ब्लूमबर्ग स्कूप" से एक सेगमेंट साझा किया, जहां उसे अधिकांश अंधेरे रंग के व्यक्ति जो सामाजिक सेवाओं का लाभ लेते हुए बताने के लिए कहा गया था, या निर्माणाधीन व्यक्तियों के छवि उत्पन्न करने के लिए पूर्वतन व्यापारिक नौकरी वस्त्र पहने जाते हैं। सेगमेंट को समाप्त करते हुए, ब्लैक ने मजाकिय ढंग से AI को "एक इच्छाशील किशोर" कहा बजाय एक सुपरकंप्यूटर की।
टेक कंपनियाँ जनरेटिव एआई (AI) प्रौद्योगिकी का उपयोग कर रही हैं ताकि प्रयोक्ताओं को खेल ज्ञान प्रदान करने और संवाद में संलग्न होने के योग्य वीडियो गेम के पात्र बनाने में सक्षम हों। हालांकि, बहुत सारे खेल लेखक AI के किस्से-कहानी में किस प्रकार के असर हो सकते हैं इस पर संदिग्धता व्यक्त करते हैं। AI का इस्तेमाल खेल के विकास में पहले से ही व्यापक रूप से हो रहा है, लेकिन कहानी विकास में इसका अनुप्रयोग संकोच के साथ होता है। कुछ लोग यह दावा करते हैं कि एआई किस्से-कहानी को बेहतर बनाने में सहायता कर सकता है, जबकि कुछ लोग विश्वास करते हैं कि मानव लेखकों द्वारा सावधानीपूर्वक रचित संवाद अद्वितीय और मायने पूर्ण चरित्र अनुभव बनाने के लिए आवश्यक हैं। लेखन के पदों के संभावित समाप्ति और भविष्य के खेल विकासकों के सृजनशीलता और विकास पर भी चिंताएं उठती हैं। अंत में, यह प्रश्न कि क्या AI को वीडियो गेम की कहानियों के लिए लेखन की जिम्मेदारी सौंपी जानी चाहिए, मानवीय सहायता और सृजनशीलता के नैतिक मानदंड के चारों ओर घूमता है। खिलाड़ी शीघ्र ही तय कर सकते हैं कि क्या वे मनुष्यों द्वारा लिखित खेल चाहते हैं या बेमर्याद मशीनों द्वारा।
- 1