lang icon En

All
Popular
Nov. 25, 2024, 7:23 a.m. 2024 के शीर्ष एआई उपयोग मामलों और उनके बारे में आपको क्या जानना चाहिए

आर्टिफिशियल इंटेलिजेंस अब व्यापक हो चुकी है, और Apple के iPhone 16 के रिलीज के साथ एआई को रोजमर्रा के उपकरणों में शामिल कर लिया गया है। जबकि 2023 एआई जागरूकता के लिए जाना गया, 2024 ने महत्वपूर्ण प्रयोग और अपनापन देखा। यह लेख 2024 के शीर्ष एआई उपयोग मामलों पर चर्चा करता है, इस बात पर जोर देते हुए कि एआई को मानव क्षमताओं को बढ़ाने के उपकरण के रूप में देखना महत्वपूर्ण है। शुरू में, बोर्ड के निर्देशों और फोमो (FOMO) से प्रेरित व्यापक एआई कार्यान्वयन के लिए धक्का दिया गया। हालांकि, परिणाम भिन्न थे क्योंकि लोगों को एहसास हुआ कि एआई सब कुछ हल नहीं कर सकता और इसे मानव प्रयासों के पूरक के रूप में होना चाहिए। एआई को इसके ताकत के क्षेत्रों—पैमाना और गति—पर ध्यान देना चाहिए ताकि थकाऊ कार्यों में सुधार किया जा सके बजाय मानव निर्णय लेने की प्रक्रिया को बदलने के। अत्यधिक निर्भरता से बचना बहुत महत्वपूर्ण है, क्योंकि इससे बौद्धिक ठहराव हो सकता है। भ्रामक जानकारी और पारदर्शिता जैसी समस्याएं बनी रहती हैं, लेकिन कंपनियां जैसे कि Perplexity

Nov. 25, 2024, 5:38 a.m. प्रभावशाली लोग AI 'महिलाओं' का उपयोग करके लोगों को OnlyFans और Fanvue की ओर ले जा रहे हैं — जहाँ और अधिक AI इंतजार कर रहा है।

AI मॉडल वयस्क सामग्री प्लेटफार्मों जैसे ओनलीफैन्स और फैनव्यू पर तेजी से दिखाई दे रहे हैं, कभी-कभी चोरी की गई छवियों को शामिल करते हुए। इसके अलावा, लोगों को अपने लाभकारी AI वयस्क निर्माताओं को बनाने के तरीके सिखाने के लिए $220 तक की कीमत वाले पाठ्यक्रम बेचे जा रहे हैं। क्या AI मानव वयस्क सामग्री निर्माताओं के लिए खतरा है? और क्या सब्सक्राइबर जानते हैं कि वे AI के साथ बातचीत कर रहे हैं? पिछली सर्दियों में, AI के मानवों की जगह लेने की संभावना के बारे में कहानियाँ थीं, विशेषकर ऑनलाइन इन्फ्लुएंसर्स के रूप में। इन लेखों में यह बताया गया कि कुछ नए इंस्टाग्राम इन्फ्लुएंसर्स ने बड़ी फॉलोइंग और ब्रांड डील प्राप्त की थीं, परंतु ये इन्फ्लुएंसर्स वास्तव में AI थे। कुछ AI इन्फ्लुएंसर्स, जैसे लिल मिकेला, कलात्मक टिप्पणी के रूप में या वैचारिक खूबसूरती प्रस्तुत करते हैं। हालांकि, एक AI इन्फ्लुएंसर की गहन जांच के बाद, जो ब्रांड डील प्राप्त करने की खबरों में थी, एक अलग कहानी सामने आई। एक प्रमुख AI इन्फ्लुएंसर की इंस्टाग्राम प्रोफाइल में एक फैनव्यू प्रोफाइल लिंक की गई थी, जो ओनलीफैन्स का प्रतियोगी है। फैनव्यू पर उसने उत्तेजक तस्वीरें पोस्ट कीं, और मैं उसकी नग्न छवियों को $7 मासिक सब्सक्रिप्शन पर देख सकता था। "वह" और "नग्न" शब्दों का उपयोग करना अजीब लगता है क्योंकि वह वास्तव में मौजूद नहीं है—वह AI है। 2024 में हम इसी स्थिति का सामना कर रहे हैं। सच्चा व्यापार, ऐसा लगता है, हमेशा से पोर्नोग्राफी रहा है, जिसमें इंस्टाग्राम और सोशल मीडिया फैनव्यू की ओर ट्रैफिक खींचने के गेटवे के रूप में कार्य करते हैं, नग्न तस्वीरें देखने के लिए सब्सक्रिप्शन्स प्रोत्साहित करते हैं। जब उपयोगकर्ता इन पेड प्लेटफार्मों पर पहुंचते हैं, तो उन्हें अधिक AI-जनित सामग्री मिलती है। 404 मीडिया, एक तकनीक समाचार साइट, ने हाल ही में इस बढ़ते हुए "AI पिम्पिंग" उद्योग की जांच की, जो ओनलीफैन्स और फैनव्यू पर कई AI-चालित खाते उजागर करता है। चिंताजनक रूप से, कुछ खातों में पूरी तरह से AI-निर्मित नहीं बल्कि डीपफेक या चेहरे को बदलने जैसी छवियां थीं, जहाँ वास्तविक चेहरों को AI-जनित शरीरों पर लगाया गया था। साथ ही, एक अर्थव्यवस्था भी है जहाँ लोग AI मॉडल के व्यवसाय शुरू करने के लिए गाइड और पाठ्यक्रम बेचते हैं। एक ऐसे कोर्स की लागत $220 है, जो AI वयस्क इन्फ्लुएंसर्स के साथ कमाई करने का तरीका सिखाता है। एक फैनव्यू प्रवक्ता ने बिजनेस इनसाइडर को बताया कि प्लेटफ़ॉर्म उन छवियों के उपयोग पर रोक लगाता है जो किसी की पहचान चुराती हैं। फैनव्यू तीसरे-पक्ष के मॉडरेशन के साथ-साथ मानव मॉडरेटर का उपयोग करता है और "डीपफेक को एक उद्योग चुनौती के रूप में" स्वीकार करता है। ओनलीफैन्स की सेवा की शर्तें मॉडल को AI चैटबॉट्स का उपयोग करने से रोकती हैं, AI सामग्री की अनुमति देती हैं यदि उपयोगकर्ता इसे AI मानते हैं और केवल तब जब यह सत्यापित निर्माता की विशेषता हो, न कि किसी और की। AI वयस्क सामग्री का अस्तित्व चोरी की गई छवियों से परे मुद्दे उठाता है। जबकि कुछ AI निर्माताओं के काम की तुलना कार्टून पोर्नोग्राफी से करते हैं, वास्तविक जीवन के वयस्क निर्माता AI के उनके व्यवसाय पर प्रभाव के बारे में चिंतित हैं। कुछ निर्माता AI टूल्स को सहायक पाते हैं, जैसे कि प्रशंसकों के साथ बातचीत के लिए AI चैटबॉट्स, लेकिन प्रशंसकों के विश्वास की कमी के बारे में भी चिंतित रहते हैं। यह स्पष्ट नहीं है कि AI खातों के प्रशंसकों को महसूस होता है कि ये "चरित्र" AI हैं। स्पष्ट रूप से AI-जनित प्रोफाइल पर टिप्पणियां सुझाती हैं कि कई उन्हें मानव मानते हैं। फैनव्यू पर, एक AI-जनित महिला कभी-कभी अपनी एनीमे संस्करण साझा करती है। एक ऐसी ही पोस्ट पर, एक भुगतान करने वाले उपयोगकर्ता ने "वास्तविक" महिला पर पोशाक देखने की इच्छा व्यक्त की, यह समझे बिना कि न तो संस्करण वास्तविक है।

Nov. 25, 2024, 2:43 a.m. माइक्रोसॉफ्ट इग्नाइट 2024 से शीर्ष 5 ऐज़्योर एआई घोषणाएँ

At Microsoft Ignite 2024, कंपनी ने स्वायत्त AI एजेंट्स की दिशा में रणनीतिक कदम उठाते हुए महत्वपूर्ण प्रगति पेश की, जो विभिन्न क्षेत्रों में संचालन दक्षता को बढ़ाता है। इसका केंद्र बिंदु एजेंट-आधारित सिस्टम्स के साथ कॉपाइलट का एकीकरण है, जो सहायक टूल से स्वायत्त एजेंट्स की ओर Microsoft के परिवर्तन को दर्शाता है, जो जटिल कार्यों में न्यूनतम मानव हस्तक्षेप से सक्षम होते हैं। 1

Nov. 25, 2024, 1:01 a.m. एआई को प्रशिक्षित करने वाले लेबलर्स कहते हैं कि वे बड़ी अमेरिकी टेक कंपनियों द्वारा अधिक काम करने के लिए मजबूर हैं, कम वेतन पा रहे हैं और उनका शोषण हो रहा है।

सामान्य विश्वास यह है कि कृत्रिम बुद्धिमत्ता (AI) मानव नौकरियों को समाप्त कर देगी क्योंकि मशीनें स्वायत्त रूप से काम करना सीख जाएंगी। हालाँकि, AI कंपनियों जैसे मेटा, ओपनAI, माइक्रोसॉफ्ट, और गूगल के लिए AI सिस्टम को बढ़ाने हेतु डेटा लेबलिंग और छंटाई करने वाले वैश्विक कार्यबल, जिसे "ह्यूमन्स इन द लूप" कहा जाता है, पर भारी रूप से निर्भर करता है। AI की संभावनाओं के बावजूद, नए उपकरणों और आविष्कारों जैसे कार्यों के लिए मनुष्यों की आवश्यकता होती है। केन्या में, जहां बेरोजगारी उच्च है, नफ्ताली वंबालो, कई अन्य लोगों के साथ, AI को प्रशिक्षित करने के लिए डेटा लेबलिंग करने वाले डिजिटल काम में लगे हुए हैं। हालाँकि, इस तरह की भूमिकाओं की नागरिक अधिकार कार्यकर्ताओं जैसे नेरीमा वाको-ओजीवा द्वारा शोषक होने के कारण आलोचना की जाती है, क्योंकि ये नौकरियों की सुरक्षा और खराब वेतन प्रदान करती हैं। आउटसोर्सिंग फर्में तकनीकी दिग्गजों की ओर से कर्मचारियों को काम पर रखती हैं, अक्सर कंपनियों द्वारा दी जाने वाली अधिक राशि के बावजूद उन्हें कम भुगतान करती हैं। नफ्ताली जैसे श्रमिकों को चुनौतीपूर्ण परिस्थितियों का सामना करना पड़ता है, विशेष रूप से वे जो ग्राफिक सामग्री का मॉडरेशन करते हैं, जिससे गंभीर भावनात्मक कष्ट होता है। यह शोषण सस्ते श्रम बाजारों वाले देशों तक फैला हुआ है, क्योंकि राष्ट्रीय श्रम कानून डिजिटल श्रमिकों की रक्षा करने में पीछे हैं। शिकायतों और काम पूरा करने के बावजूद भुगतान नहीं होने जैसी समस्याओं के बावजूद, कंपनियां अक्सर जिम्मेदारी और निगरानी से बचती हैं। लेस्ली स्टाल उन देशों में रोजगार के अवसरों की गंभीर आवश्यकता को रेखांकित करती हैं, जैसे केन्या, जहां सरकार तकनीकी निवेश को प्रोत्साहित करती है। हालाँकि, सक्रियतावादी समान कार्य परिस्थितियों की मांग करते हैं, आलोचना करते हैं कि कैसे बड़ी तकनीकी कंपनियां वैश्विक श्रम असमानताओं का शोषण करती हैं। जबकि तकनीकी दिग्गज उचित परिस्थितियों को सुनिश्चित करने का दावा करते हैं, चुनौतियाँ बनी रहती हैं, जो डिजिटल श्रमिकों को शोषक व्यवहारों के लिए मुकदमों में धकेलती हैं। यह स्थिति अंतरराष्ट्रीय श्रम असमानता के एक व्यापक पैटर्न को रेखांकित करती है, जो लागत कम करने के लिए तकनीकी कंपनियों द्वारा संज्ञान में लाई जाती हैं।

Nov. 24, 2024, 11:47 p.m. अमेज़न ने AI स्टार्ट-अप एंथ्रोपिक में 4 बिलियन डॉलर का और निवेश किया।

बाद में, प्रति माह CHF85। किसी भी डिवाइस पर उच्च गुणवत्ता वाली FT पत्रकारिता की पूरी डिजिटल पहुंच का आनंद लें। आप अपने परीक्षण के दौरान किसी भी समय रद्द कर सकते हैं।

Nov. 24, 2024, 10:09 p.m. एआई एजेंट्स के साथ शुरुआत करना (भाग 2): स्वायत्तता, सुरक्षा उपाय और संभावित समस्याएँ

हमारी श्रृंखला के पहले भाग में, हमने AI एजेंटों का उपयोग करके उद्यम की दक्षता बढ़ाने की रणनीतियों का अन्वेषण किया। ये एजेंट, स्वतंत्र मॉडलों की तरह नहीं होते, ये कार्यों को संदर्भ और उपकरणों के साथ दोहराकर सुधारते हैं, जैसे कि कोड उत्पादन को बेहतर बनाते हैं। बहु-एजेंट प्रणाली विभागों में संचार को सुगम बना सकती है, जिससे अधिक उत्पादकता, लचीलापन, और तेज उन्नयन होता है। सफलता के प्रमुख कारकों में भूमिकाओं और वर्कफ़्लो का नक्शा बनाना, और मानव की देखरेख तथा त्रुटि जांच जैसे सुरक्षा उपायों को लागू करना शामिल होता है ताकि संचालन सुरक्षित रहें। आइए इन महत्वपूर्ण तत्वों की समीक्षा करें। **सुरक्षा उपाय और स्वायत्तता:** एजेंट, स्वायत्त होने के कारण, स्वायत्त संचालन के दौरान त्रुटियों, अपव्यय, कानूनी जोखिम, या हानिकारक प्रभावों को कम करने के लिए विभिन्न सुरक्षा उपायों की आवश्यकता होती है। हालांकि सभी सुरक्षा उपायों को लागू करना आवश्यकता से अधिक हो सकता है, प्रत्येक एजेंट के लिए उनकी आवश्यकता का मूल्यांकन करना महत्वपूर्ण है। यदि इनमें से कोई भी शर्त पूरी होती हो, तो एजेंट को स्वायत्त रूप से संचालित नहीं होना चाहिए। **मानव हस्तक्षेप की शर्तें:** पूर्व परिभाषित नियम यह निर्धारित करने चाहिए कि कब मानव पुष्टि आवश्यक है। ये नियम, प्रत्येक मामले के लिए विशिष्ट हो सकते हैं, और एजेंट के प्रस्ताव में या निर्धारित बाहरी कोड के माध्यम से लागू किए जा सकते हैं। उदाहरण के लिए, एक खरीदारी एजेंट को किसी भी कार्यवाही से पहले सभी कार्यों की एक मानव के साथ पुष्टि करनी चाहिए। **सुरक्षा एजेंट:** जोखिमपूर्ण या अनैतिक व्यवहार की जांच के लिए एक एजेंट को सुरक्षा एजेंट के साथ जोड़ा जा सकता है, जो अनुपालन सुनिश्चित करता है। एजेंट को सुरक्षा एजेंट की मंजूरी से पूर्व अपने कार्यों की पुष्टि करनी चाहिए। **अनिश्चितता प्रबंधन:** हमारी प्रयोगशाला ने बड़े भाषा मॉडलों (LLMs) से आउटपुट की अनिश्चितता को मापने की एक तकनीक विकसित की है, जिससे भ्रम की संभावना कम हो जाती है। हालांकि इससे विश्वसनीयता बढ़ती है, यह लागत भी बढ़ाता है और सिस्टम को धीमा कर देता है, इसलिए यह केवल महत्वपूर्ण एजेंटों के लिए सुझाया जाता है। **अलग करने वाला बटन:** प्रणाली में असंगतताओं या त्रुटियों का पता लगाने पर सभी स्वायत्त प्रक्रियाओं को रोकने के लिए एक विधि आवश्यक है, ताकि महत्वपूर्ण वर्कफ़्लो पूरी तरह से मैनुअल न बन जाएं। **एजेंट-जनित कार्य आदेश:** सभी एजेंटों को तुरंत ऐप्स और एपीआई में पूरी तरह से एकीकृत करने की आवश्यकता नहीं है। प्लेसहोल्डर टूल रिपोर्ट या मैनुअल क्रिया के लिए कार्य आदेश उत्पन्न कर सकते हैं, जो एजेंट नेटवर्क के चुस्त विकास में सहायता करते हैं। **परीक्षण:** LLM आधारित एजेंट मजबूत होते हुए भी निरंतरता और पारदर्शिता में कमी रखते हैं, जिसके लिए अनुकूलित परीक्षण रणनीति की आवश्यकता होती है। जनरेटिव AI परीक्षण मामले बना सकता है, और सैंडबॉक्सिंग सिस्टम्स के सुरक्षित और नियंत्रित विस्तार को सक्षम बनाती है। **फाइन-ट्यूनिंग:** आम धारणा के विपरीत, जनरेटिव AI केवल उपयोग से सुधार नहीं करता। LLMs के व्यवहार को एजेंट लॉग और लेबल की गई प्राथमिकताओं के साथ फाइन-ट्यून किया जा सकता है। **खामियां:** बहु-एजेंट प्रणाली कभी-कभी अटक सकती है, जिसके लिए टाइमआउट तंत्र की आवश्यकता होती है। एजेंटों को अधिक अपेक्षाओं या लंबे निर्देशों से ओवरलोड नहीं करना चाहिए। ग्रैन्युलाइजेशन, या एजेंटों को प्रबंधनीय कार्यों में विभाजित करना, ऐसे मुद्दों को कम कर सकता है। प्रणालियां अक्सर एक समन्वयक एजेंट का उपयोग करती हैं, जिससे विफलता के एकल बिंदु का जोखिम होता है। एक पाइपलाइन वर्कफ़्लो, जहां एजेंट क्रमिक रूप से कार्य सौंपते हैं, अनुशंसित है। अधिक कंफ्यूज एजेंट अत्यधिक संदर्भ पासिंग से भ्रमित हो सकते हैं। एजेंटों को अपनी संदर्भ समान रखने की अनुमति देना, जैसे कि वेबसाइट सत्र, सुझाव दिया जाता है। अंत में, LLMs की क्षमताओं को एक अपेक्षाकृत उच्च मानक पूरा करना चाहिए। नए वाणिज्यिक और ओपन-सोर्स एजेंट इसमे फिट होते हैं, हालाँकि वे पारंपरिक सॉफ़्टवेयर सिस्टम्स की तुलना में महंगे और धीमे होते हैं। लागत और गति के लिए अपेक्षाओं का समायोजन प्रभावी बहु-एजेंट सिस्टम के लिए आवश्यक है।

Nov. 24, 2024, 8:29 p.m. यह एआई में इस समय सबसे बड़ा सवाल है।

एआई नेता बड़े भाषा मॉडलों के लिए डेटा-गहन प्रशिक्षण के पुनर्मूल्यांकन कर रहे हैं क्योंकि पारंपरिक मॉडल, जो डेटा के साथ रैखिक रूप से बढ़ते हैं, संभवतः अपनी सीमाएं पा चुके हैं। उद्योग अब छोटे, अधिक कुशल मॉडलों और नवाचारी प्रशिक्षण विधियों का समर्थन कर रहा है। वर्षों से, कंपनियों जैसे कि OpenAI, Meta, और Google ने विशाल डेटासेट इकट्ठा किए हैं, यह मानते हुए कि अधिक डेटा से अधिक बुद्धिमान मॉडल प्राप्त होते हैं। हालांकि, पारंपरिक ज्ञान पुनर्मूल्यांकन के अधीन है। अनुसंधान से संकेत मिलता है कि ट्रांसफॉर्मर, जो इन मॉडलों के पीछे के न्यूरल नेटवर्क हैं, प्राप्त डेटा और कंप्यूटिंग क्षमता के अनुसार पैमाने पर होते हैं। मोहम्मद बिन जायद यूनिवर्सिटी ऑफ आर्टिफिशियल इंटेलिजेंस के सलाहकार एलेक्स वॉइका ने बताया कि पारंपरिक ट्रांसफॉर्मर मॉडल इस रैखिक संबंध का पालन करते हैं। लेकिन अधिकारियों ने इस दृष्टिकोण में सीमाएं देखनी शुरू कर दी हैं और तकनीक को आगे बढ़ाने के लिए नए तरीकों की खोज कर रहे हैं। एआई में व्यापक निवेश इस विश्वास पर निर्भर थे कि यह स्केलिंग जारी रहेगा, और Scale AI के सीईओ अलेक्जेंडर वांग ने इसे उद्योग का "सबसे बड़ा प्रश्न" बताया। कुछ का कहना है कि वर्तमान विधि सरल है; Cohere के सीईओ ऐडन गोम्ज़ का मानना है कि मॉडल का आकार और कंप्यूट बढ़ाना दोनों सबसे विश्वसनीय और कम नवाचारी तरीका है मॉडलों को सुधारने का। गोम्ज़ छोटे, लागत-प्रभावी मॉडलों को बढ़ावा देते हैं, जो उद्योग का समर्थन प्राप्त कर रहे हैं। हालांकि, चिंता है कि यह दृष्टिकोण कृत्रिम सामान्य बुद्धिमत्ता प्राप्त नहीं कर सकता है, जो मानव स्तर की बुद्धिमत्ता में सक्षम एआई का एक रूप है, जिसे प्रमुख एआई कंपनियां विकसित करने का लक्ष्य रखती हैं। बड़े भाषा मॉडल अनुक्रम में "अगले टोकन की भविष्यवाणी" करने के लिए प्रशिक्षित होते हैं, जैसा कि You