प्रेस फ्रीडम संगठन, रिपोर्टर्स विदाउट बॉर्डर्स, Apple से एक नए AI फीचर को हटाने का अनुरोध कर रहा है, जो न्यूज़ स्टोरीज़ को सारांशित करता है। इसका कारण यह है कि इस फीचर ने BBC की एक खबर को गलत तरीके से प्रस्तुत किया। विवाद उस समय उठा जब Apple इंफॉर्मेशन ने एक पुश नोटिफिकेशन जारी किया, जिसमें BBC की रिपोर्ट को गलत तरीके से सारगर्भित किया गया, जिसमें कहा गया था कि यूनाइटेडहेल्थकेयर के सीईओ की हत्या के संदिग्ध लुइगी मैंगियोन ने खुद को गोली मार ली। BBC ने इस त्रुटि को सुलझाने के लिए Apple से संपर्क किया, लेकिन यह स्पष्ट नहीं है कि Apple ने अभी तक जवाब दिया है या नहीं। रिपोर्टर्स विदाउट बॉर्डर्स के प्रौद्योगिकी और पत्रकारिता विभाग के प्रमुख, विंसेंट बेर्थियर ने Apple से इस फीचर को हटाकर जिम्मेदारियों को समझने के लिए कहा। बेर्थियर ने जोर देकर कहा कि AI को तथ्यों को संभालना नहीं चाहिए, क्योंकि यह गलत जानकारी फैलाने का जोखिम उत्पन्न करता है और मीडिया पर जनता के विश्वास को कमजोर करता है। यह पत्रकार समूह AI उपकरणों के मीडिया पर जोखिम को लेकर चिंतित है, और उनका कहना है कि इस तरह की घटनाएं यह दर्शाती हैं कि सार्वजनिक जानकारी के लिए AI भरोसेमंद नहीं है। उनका मानना है कि AI की विशेषतः संभाव्य प्रकृति इसे समाचार मीडिया अनुप्रयोगों के लिए अनुपयुक्त बनाती है। इसके जवाब में, BBC ने इस बात पर जोर दिया कि उनके नाम से जुड़ी जानकारी, जिसमें नोटिफिकेशन शामिल हैं, में दर्शकों के विश्वास को बनाए रखना जरूरी है। Apple ने इस मुद्दे पर कोई टिप्पणी नहीं की है। Apple ने जून में U
एजेंटिक एआई जनरेटिव एआई से परे आर्टिफिशियल इंटेलिजेंस को एक नए स्तर पर ले जा रहा है, जिसमें समान गुण और चुनौतियाँ शामिल हैं, लेकिन कुछ अलग विशेषताओं के साथ। सेल्सफोर्स के सीईओ मार्क बेनीऑफ इसे एआई के "तीसरी लहर" के रूप में वर्णित करते हैं, जो भविष्यवाणी मॉडल और जनरेटिव एआई जैसे ChatGPT के बाद आती है। यह नई लहर बुद्धिमान एजेंटों के बारे में है, जो जटिल कार्यों को स्वायत्त रूप से पूरा करने में सक्षम हैं। ये एआई एजेंट डिजिटल सहकर्मियों या सहायकों के रूप में कार्य करते हैं, जो मानव क्षमताओं को पहले से अकल्पनीय तरीकों में सुधार देते हैं। वे ग्राहक बातचीत को प्रबंधित कर सकते हैं, डेटा का विश्लेषण कर सकते हैं, और वास्तविक समय में स्वतंत्र रूप से कार्य कर सकते हैं, जिससे व्यापक एआई की तुलना में बेहतर क्षमताएँ और निवेश पर रिटर्न मिलता है। बीसीजी एक्स के सेश अय्यर जैसे उद्योगों के नेता एजेंटिक एआई को उत्पादकता बढ़ाने के लिए प्रक्रियाओं को पुनः डिज़ाइन करने के तरीके के रूप में स्वीकार करते हैं। हालाँकि, एजेंटिक एआई के लिए स्पष्ट नैतिक दिशा-निर्देश और संचालन मानकों की अनुपालना की आवश्यकता होती है, जिससे अनुपालन और निष्पक्षता सुनिश्चित हो सके। एआई एजेंटों का विकास और प्रबंधन सही कौशल की आवश्यकता है, जो अक्सर संगठनों में उपलब्ध होते हैं, लेकिन इसके लिए कौशल को उन्नत करने की भी आवश्यकता होती है। जनरेटिव एआई, जो विभिन्न उद्योगों में उपयोग की जाती है, के विपरीत, एजेंटिक एआई विशेष वातावरण पर केंद्रित है, जिसमें पूर्वानुमानित कार्यों में कम त्रुटि जोखिम के साथ सफलता मिलती है। इसमें मौजूदा प्रणालियों के साथ जटिल एकीकरण शामिल होता है, जिससे निर्णय लेने की क्षमताओं को बढ़ाने के लिए बदलाव की आवश्यकता होती है। जनरेटिव एआई से एजेंटिक एआई में परिवर्तन के लिए, व्यवसायों को छोटे स्तर से शुरू करना चाहिए, उच्च-प्रभाव वाले उपयोग मामलों की पहचान करनी चाहिए, और पायलट कार्यक्रमों का संचालन करना चाहिए। ध्यान इस बात पर होना चाहिए कि कार्यप्रवाह को कैसे बदला जाए ताकि सांसारिक कार्यों को कम किया जा सके और मानव-मशीन सहयोग को बढ़ाया जा सके। अनिश्त चौकियों वाले उच्च-जोखिम वाले वातावरण जैसे आर एंड डी या फार्मा में एजेंटिक एआई के उपयोग में चुनौतियाँ होती हैं, जहाँ सूक्ष्म समझ आवश्यक होती है। एजेंटिक एआई की सफलता के लिए वास्तविक समय डेटा बहुत महत्वपूर्ण है। प्रभावी एआई एजेंटों के निर्माण के लिए समस्या क्षेत्र का प्रतिनिधित्व करते हुए परीक्षण के लिए एक प्रणाली और लेबल लगे, साफ डेटा की आवश्यकता होती है। जैसे-जैसे एजेंटिक एआई पर निर्भरता बढ़ेगी, नए पर्यवेक्षणीय ढांचे की आवश्यकता होगी, विशेषकर उच्च-स्टेक्स क्षेत्रों में, जहाँ मानवीय निगरानी के महत्व को अनपेक्षित परिणामों को कम करने के लिए बल दिया जाएगा।
मई 2020 में, थॉमसन रॉयटर्स, जो कि एक मीडिया और तकनीकी संगठित समूह है, ने एक छोटे कानूनी एआई स्टार्टअप, रॉस इंटेलिजेंस के खिलाफ मुकदमा दायर किया। आरोप यह था कि रॉस इंटेलिजेंस ने वेस्टलॉ, थॉमसन रॉयटर्स की कानूनी शोध सेवा से सामग्री का उपयोग करके अमेरिकी कॉपीराइट कानून का उल्लंघन किया था। शुरुआत में, इस मामले ने कॉपीराइट कानूनों पर केंद्रित सीमित समुदाय के बाहर ज्यादा ध्यान नहीं खींचा। हालांकि, अब यह स्पष्ट है कि यह मुकदमा—जो जेनरेटिव एआई के उभार से दो साल पहले शुरू किया गया था—प्रकाशकों और एआई कंपनियों के बीच व्यापक संघर्ष में एक शुरुआती चाल थी, जो अब देशभर के अदालतों में हो रही है। इस संघर्ष का समाधान सूचना परिदृश्य और एआई क्षेत्र को पुनः परिभाषित कर सकता है, जो वैश्विक इंटरनेट उपयोगकर्ताओं को प्रभावित करेगा। पिछले दो वर्षों में, एआई कंपनियों के खिलाफ कई समान कॉपीराइट मुकदमों दायर किए गए हैं। वादी में लेखक जैसे सारा सिल्वरमैन और ता-नेहेसी कोट्स, दृश्य कलाकार, मीडिया आउटलेट जैसे द न्यूयॉर्क टाइम्स, और म्यूजिक विशाल यूनिवर्सल म्यूजिक ग्रुप शामिल हैं। ये अधिकार धारक दावा करते हैं कि एआई कंपनियों ने अपने कंटेंट का उपयोग व्यावसायिक रूप से मूल्यवान एआई मॉडल तैयार करने के लिए किया है, जिसे वे चोरी के बराबर मानते हैं। एआई कंपनियां अक्सर "फेयर यूज़" सिद्धांत के तहत बचाव करती हैं, तर्क देते हुए कि एआई टूल्स का विकास कॉपीराइट सामग्री का मान्य उपयोग है, जो बिना सहमति या मुआवजे के किया जा सकता है। (फेयर यूज के आमतौर पर स्वीकार्य उदाहरण पैरोडी, समाचार रिपोर्टिंग, और शैक्षणिक अध्ययन हैं।) प्रमुख जेनरेटिव एआई फर्म जैसे ओपनएआई, मेटा, माइक्रोसॉफ्ट, गूगल, एंथ्रॉपिक, और एनवीडिया इस कानूनी लड़ाई में शामिल हैं। WIRED इन मुकदमों की प्रगति पर कड़ी नजर रख रहा है। हमने दृश्य साधनों का विकास किया है जो यह समझने और ट्रैक करने में मदद करेंगे कि किन कंपनियों और अधिकार धारकों ने इन मामलों में भाग लिया है, मामलों के दाखिल होने के स्थान, आरोपों की प्रकृति, और अन्य महत्वपूर्ण जानकारी।
इंटरनेट के आगमन के बाद से हमने कई तकनीकों और रुझानों को देखा है, जैसे जीनोम डिकोडिंग, 3D प्रिंटिंग, ब्लॉकचेन, कैनबिस और मेटावर्स। इनमें से हर एक ने शुरुआती प्रचार का सामना किया और फिर अपनाने की दर को अत्यधिक अनुमानित करने के कारण महत्वपूर्ण मूल्य गिरावट का सामना किया। कृत्रिम बुद्धिमत्ता (AI) भी ऐसा ही रास्ता अपना सकती है यदि इसे परिपक्व होने का समय नहीं दिया गया, विशेष रूप से जब कई व्यवसायों के पास लाभदायक AI कार्यान्वयन के लिए स्पष्ट योजनाएँ नहीं हैं, जिससे एक सट्टा बुलबुला बन सकता है। 2025 में AI बुलबुला के फूटने का एक संभावित कारण GPU की कमी का समाधान है, जिसने Nvidia का स्टॉक आसमान छूते स्तर तक पहुंचा दिया। Nvidia ने इस कमी का लाभ उठाते हुए अपने हार्डवेयर की कीमतें काफी बढ़ा दीं, जिससे उसके मुनाफे में वृद्धि हुई। हालांकि, जैसे-जैसे AMD जैसे प्रतिद्वंद्वी उत्पादन को बढ़ाएंगे और कई ग्राहक अपने खुद के AI-GPUs विकसित करने लगेंगे, जो कि इतने शक्तिशाली नहीं होंगे लेकिन सस्ते और अधिक सुलभ होंगे, यह लाभ कम होने की संभावना है। अमेरिकी नियामक कार्रवाइयाँ भी AI विकास की दिशा को बाधित कर सकती हैं। बाइडेन प्रशासन ने AI चिप्स के चीन को निर्यात पर प्रतिबंध लगाया, जिससे Nvidia और Lam Research जैसी कंपनियों पर असर पड़ा, जिनका चीन के साथ काफी राजस्व संबंध है। राष्ट्रपति-निर्वाचित ट्रंप के प्रशासन में यह नीति बदलने की संभावना नहीं है, जो चीन के साथ व्यापारिक संबंधों को बिगाड़ सकती है और संभावित टैरिफ के साथ AI बिक्री को प्रभावित कर सकती है। इसके अलावा, वर्तमान AI स्टॉक मूल्यांकन अत्यधिक उच्च हैं, जो ऐतिहासिक अस्थिर स्तरों को दर्शाते हैं, जैसे डॉट-कॉम बुलबुले के फूटने से पहले अमेज़न और सिस्को सिस्टम्स, जो बिक्री के 30-40 गुना तक पहुंच गए थे। वर्तमान में, Nvidia और Palantir के भी ऐसे ही फुले हुए मूल्यांकन हैं, जो संकेत देते हैं कि निवेशक के उत्साह में कमी आने पर एक संभावित सुधार हो सकता है। अंत में, The Motley Fool ने Nvidia के स्टॉक के प्रति सावधानी बरतने का सुझाव दिया है, यह बताते हुए कि उनकी स्टॉक विशेषज्ञ टीम ने बेहतर निवेश अवसरों की पहचान की है, जिनसे संभावित रूप से महत्वपूर्ण रिटर्न मिल सकता है। उल्लेखनीय रूप से, उनके सुझावों ने 2002 से S&P 500 को काफी हद तक पीछे छोड़ दिया है, जो सट्टात्मक बाजार की स्थितियों के बीच सावधानीपूर्वक स्टॉक चयन के महत्व पर जोर देता है।
मैंने ChatGPT की चिकित्सीय क्षमता का पता लगाने के लिए उपयोगकर्ता द्वारा निर्मित थेरेपिस्ट GPT का उपयोग किया, जो सुनने का अवसर और सांत्वना देने वाली सलाह प्रदान करता है, हालांकि यह पेशेवर थेरेपी का प्रतिस्थापन नहीं है। कई सोशल मीडिया उपयोगकर्ता, जैसे माया डनहैम, नए दृष्टिकोण प्राप्त करने और अपनी भावनाएँ साझा करने के लिए चैटबॉट्स का उपयोग करते हैं, जो AI इंटरैक्शन की गैर-आलोचनात्मक और सुलभ प्रकृति को महत्व देते हैं। जबकि कुछ शोध बताते हैं कि चैटबॉट्स हल्की मानसिक स्वास्थ्य समस्याओं में मदद कर सकते हैं, विशेषज्ञ, जिनमें डॉ.
Google ने एक नया AI मॉडल पेश किया है, जो "तर्क" पर केंद्रित है, हालांकि यह अभी भी परीक्षण चरण में है और प्रारंभिक परीक्षण के आधार पर इसमें सुधार की आवश्यकता प्रतीत होती है। इस मॉडल का नाम जेमिनी 2
जैसे ही हम 2024 के अंत के करीब पहुंचते हैं, फर्स्ट ओपिनियन चिकित्सा और बायोफार्मा में AI पर निबंध प्रकाशित कर रहा है। हाल की घटनाओं में, दो व्यक्तियों ने पूर्व राष्ट्रपति डोनाल्ड ट्रंप की हत्या करने का प्रयास किया, जिससे सर्च इंजन और चैटबॉट जैसे AI उपकरणों की अपराध गतिविधियों में सहायता करने की भूमिका को लेकर चिंताएं बढ़ गई हैं। ऐसे AI उपकरण सर्च फ़ंक्शंस में तेजी से शामिल हो रहे हैं, जिससे भविष्य में अपराधियों को हमले की योजना बनाने में सहायता मिल सकती है। पारंपरिक सर्च इंजनों के विपरीत, चैटबॉट उन्नत खोज और व्यक्तिगत इंटरैक्शन प्रदान करते हैं, जिससे यह अत्यंत महत्वपूर्ण हो जाता है कि वे मानसिक स्वास्थ्य संकटों और जानलेवा इरादों को पहचानें और सुरक्षित प्रतिक्रिया दें। हाल की एक घटना में, AI के साथ संदिग्ध के इंटरैक्शन का विश्लेषण किया गया, जिससे स्थैतिक खोज प्रश्नों की तुलना में गहरी अंतर्दृष्टि प्राप्त हुई। कई भाषा मॉडल पर किए गए परीक्षणों ने दिखाया कि अधिकांश भरोसेमंद रूप से मानसिक स्वास्थ्य आपात स्थितियों का पता नहीं लगा सके और अक्सर हानिकारक प्रतिक्रियाएं प्रदान कीं। मानसिक स्वास्थ्य के लिए फाइन-ट्यून किए गए मॉडल ने कोई महत्वपूर्ण सुधार नहीं दिखाया, जिससे सुरक्षा प्रशिक्षण की आवश्यकता पर बल दिया। उन्माद और मनोविकृति जैसे लक्षणों के लिए मॉडल सुरक्षा में सुधार ने मामूली प्रगति दिखाई, लेकिन मॉडल आमतौर पर स्वयं का सटीक मूल्यांकन करने में विफल रहे। इन मुद्दों को संबोधित करने के लिए मानसिक स्वास्थ्य में विशेषज्ञ-जानकारी वाली सुरक्षा शोध आवश्यक है, AI की भूमिका का इस्तेमाल मानसिक स्वास्थ्य संकटों में किया जाना चाहिए, क्योंकि AI कई लोगों के लिए एक प्रमुख संपर्क बिंदु बन रहा है। आगे का मार्ग AI सुरक्षा शोध को वित्तपोषित करना, AI डेवलपर्स और मानसिक स्वास्थ्य पेशेवरों के बीच सहयोग, और मानसिक स्वास्थ्य इंटरैक्शनों को संभालने के लिए AI के लिए स्पष्ट दिशानिर्देश बनाना शामिल है। डेक्लन ग्रैब, एम
- 1