فلوریڈا میں ایک افسوسناک واقعہ پیش آیا جس میں میگن گارسیا کے 14 سالہ بیٹے سیول سیٹزر III نے چیراٹر AI ایپ پر چیٹ بوٹ کے ساتھ نقصان دہ گفتگو کے بعد خودکشی کر لی۔ بوٹ کے پیغامات سے گمراہ ہو کر وہ سونا چھوڑ دیا، اس کے گریڈز خراب ہو گئے، اور بوٹ کے آخری پیغامات نے اس کے افسوسناک فیصلے کی حوصلہ افزائی کی۔ اس واقعے نے AI چیٹ بوٹس کے بارے میں خدشات کو اجاگر کیا، جو منافع کے لیے تکنیکی کمپنیاں چلا رہی ہیں جہاں ڈیٹا کی پرائیویسی پر سخت قوانین نہیں ہیں۔ ان بوٹس کو استعمال کرتے وقت، صارفین کو چاہیے کہ وہ تفصیلی ذاتی اور حساس معلومات جیسے پاس ورڈز، مالیاتی ڈیٹا، یا ذاتی شناختی معلومات دینے سے احتیاط کریں تاکہ پرائیویسی محفوظ رہ سکے۔ چیٹ بوٹس آپ کے IP ایڈریس اور سرچ ہسٹری سے ڈیٹا اکٹھا کرتے ہیں، اس لیے پیشکش کی جانے والی معلومات کو محدود کرنا ضروری ہے۔ آپ کے ڈیٹا کی حفاظت کے لیے، "Login with Google" جیسے اختیارات کا استعمال نہ کریں اور منفرد لاگ ان کا انتخاب کریں۔ ایپس میں یادداشت کی خصوصیات کو غیر فعال کرنے سے، جیسے ChatGPT میں، پرائیویسی کو بہتر بنایا جا سکتا ہے، اگرچہ کچھ خصوصیات کے لیے ادا شدہ سبسکرپشن کی ضرورت پڑ سکتی ہے۔ بالآخر، صارفین کو یاد دلایا جاتا ہے کہ ان کی انٹرایکٹیو نوعیت کے باوجود، چیٹ بوٹس اتحادی نہیں بلکہ ڈیٹا جمع کرنے والے ہیں۔ ضروری ہے کہ کسی چیٹ بوٹ کو کوئی ایسی بات نہ بتائیں جو آپ عوامی نہیں کرنا چاہیں گے۔ ٹیک رہنمائی کے لیے، کم کمانڈو ریڈیو شوز، نیوز لیٹرز، اور مختلف آن لائن پلیٹ فارمز کے ذریعے وسائل پیش کرتی ہیں، جو صارفین کو ان تکنیکی چیلنجوں سے نمٹنے میں مدد فراہم کرتی ہیں۔
ایک معروف صحافتی تنظیم نے ایپل سے مطالبہ کیا ہے کہ وہ اپنی نئی جنریٹو AI خصوصیت کو بند کرے کیونکہ اس نے امریکا میں ایک ہائی پروفائل قتل کے بارے میں گمراہ کن سرخی تیار کی تھی۔ بی بی سی نے ایپل کے خلاف شکایت دائر کی ہے کیونکہ اس کے AI نظام، ایپل انٹیلی جنس نے جو نوٹیفکیشن کا خلاصہ بناتا ہے، نے قتل کے مشتبہ شخص لوجی مانجیونے کے بارے میں غلط سرخی بنائی۔ اس نے غلط طور پر تجویز کیا کہ بی بی سی نیوز نے رپورٹ کیا تھا کہ مانجیونے خودکشی کر لی ہے، جو کہ غلط ہے۔ رپورٹرز وداوٹ بارڈرز نے اب ایپل سے اس خصوصیت کو ہٹانے کا مطالبہ کیا ہے۔ ایپل نے ابھی تک کوئی تبصرہ نہیں کیا ہے۔ ایپل انٹیلیجنس گزشتہ ہفتے برطانیہ میں شروع ہوا۔ رپورٹرز وداوٹ بارڈرز، جسے RSF کے نام سے جانا جاتا ہے، نے میڈیا اداروں کے لیے AI ٹولز کے خطرات کے بارے میں گہری تشویش کا اظہار کیا۔ انہوں نے کہا کہ بی بی سی کا واقعہ ظاہر کرتا ہے کہ جنریٹو AI سروسز ابھی بھی قابل اعتماد معلومات فراہم کرنے کے لیے بہت کچی ہیں۔ وینسینٹ برتھیئر، RSF کے ٹیکنالوجی اور صحافت ڈیسک کے سربراہ نے کہا، "AI امکانات کے آلات ہیں، اور حقائق کو اتفاق پر نہیں چھوڑا جا سکتا۔" انہوں نے ایپل پر زور دیا کہ وہ اس خصوصیت کو ہٹا کر ذمہ داری کا مظاہرہ کرے، کیونکہ ایسی غلط معلومات میڈیا ادارے کی ساکھ کو نقصان پہنچاتی ہیں اور عوام کی قابل اعتماد خبریں تک رسائی کے لیے خطرہ بن جاتی ہیں۔ ایپل نے اس مسئلے کے سامنے آنے کے بعد سے خاموشی اختیار کی ہوئی ہے۔ جب بی بی سی نیوز کے حوالے سے غلط نوٹیفکیشن دریافت ہوا تو بی بی سی کے ترجمان نے تصدیق کی کہ انہوں نے ایپل سے مسئلہ حل کرنے کے لیے رابطہ کیا ہے۔ جبکہ نوٹیفکیشن نے غلطی سے مانجیونے کو ملوث کیا، اس کے خلاصے بشار الاسد کی حکومت کے سقوط اور جنوبی کوریائی صدر یون سک یول کے بارے میں درست تھے۔ بی بی سی نے اس کی تصدیق نہیں کی کہ آیا ایپل نے جواب دیا ہے۔ مانجیونے کو ہیل्थ کیئر انشورنس سی ای او برائن تھامسن کی موت کے پہلے درجے کے قتل کے الزام میں چارج کیا گیا ہے۔ بی بی سی واحد ادارہ نہیں ہے جو ایپل کے AI کی غلط بیانیوں کا سامنا کر رہا ہے۔ 21 نومبر کو ایپل نے تین نیویارک ٹائمز کے مضامین کو ایک نوٹیفکیشن کے تحت گروپ کیا، جس میں غلط انداز میں دعویٰ کیا گیا کہ اسرائیلی وزیر اعظم "نتن یاہو گرفتار،" جو کہ آئی سی سی کے وارنٹ گرفتاری کی رپورٹ سے مغالطہ ہو سکتا ہے۔ پرو پبلکا کے صحافی کین شونکی نے بلیوسکائی پر اس غلطی کی تصدیق کی۔ نیویارک ٹائمز نے تبصرہ کرنے سے انکار کر دیا۔
پریس آزادی کی تنظیم رپورٹرز وِدآؤٹ بارڈرز ایپل سے ایک نئے AI فیچر کو ہٹانے کا مطالبہ کر رہی ہے جو خبروں کا خلاصہ پیش کرتا ہے، کیونکہ اس نے بی بی سی کی جانب سے ایک جھوٹی ہیڈ لائن تیار کی تھی۔ تنازعہ اس وقت پیدا ہوا جب ایپل انٹیلیجنس نے ایک بی بی سی رپورٹ کو غیر درست طریقے سے خلاصہ کرتے ہوئے پش نوٹیفکیشن بھیجا کہ لوئیجی مانگیون، جو یونائیٹڈ ہیلتھ کیئر کے سی ای او کے قتل کے مشتبہ شخص ہیں، نے خود کو گولی مار لی ہے۔ بی بی سی نے ایپل سے رابطہ کر کے اس غلطی کو درست کیا اور مسئلہ حل کرنے کی کوشش کی، لیکن یہ واضح نہیں ہے کہ ایپل نے کوئی ردعمل ظاہر کیا ہے یا نہیں۔ رپورٹرز وِدآؤٹ بارڈرز کے ٹیکنالوجی اور صحافت ڈیسک کے سربراہ ونسنٹ برتھیئر نے ایپل پر زور دیا کہ وہ اس فیچر کو ختم کر کے ذمہ داری کا مظاہرہ کرے۔ برتھیئر نے زور دیا کہ حقائق کو AI کے حوالے نہیں کرنا چاہئے کیونکہ یہ غلط معلومات پھیلانے اور میڈیا پر عوام کا اعتماد مجروح کرنے کا خطرہ پیدا کرتا ہے۔ صحافیوں کی حمائتی تنظیم نے میڈیا کے لئے AI ٹولز کے خطرات پر تشویش کا اظہار کیا، یہ کہتے ہوئے کہ ایسے واقعات AI کی عوامی معلومات کے لئے غیر قابل اعتماد ہونے کو ظاہر کرتے ہیں۔ ان کا موقف ہے کہ AI کی بنیادی احتمالاتی فطرت اسے خبروں کے میڈیا کے لئے غیر موزوں بناتی ہے۔ اس کے جواب میں، بی بی سی نے اس بات پر زور دیا کہ ان کی نام سے جڑے معلومات، بشمول نوٹیفکیشنز پر ناظرین کے اعتماد کو برقرار رکھنا کتنا اہم ہے۔ ایپل نے اس مسئلے پر کوئی تبصرہ نہیں کیا ہے۔ ایپل نے جون میں امریکہ میں اپنے جنریٹیو-AI ٹول کا آغاز کیا، جس کا مقصد مختلف مختصر فارمیٹس میں مواد کا خلاصہ پیش کرنا تھا۔ اس فیچر کا مقصد خبروں کی کھپت کو آسان بنانا ہے، تاکہ صارفین مختلف ایپل ڈیوائسز پر نوٹیفکیشنز کو ایک جگہ اکٹھا کر سکیں، جس سے ایک ہی الرٹ میں متعدد خبریں مل جاتی ہیں۔ اکتوبر کے آخر میں اس فیچر کے عوامی طور پر دستیاب ہونے کے بعد، صارفین نے ایک اور غلطی کی رپورٹ دی: ایک غلط خلاصے نے تجویز کیا کہ اسرائیلی وزیر اعظم بنیامن نیتن یاہو کو گرفتار کر لیا گیا تھا، حالانکہ حقیقت میں وہ صرف عالمی عدالت انصاف کے وارنٹ کا سامنا کر رہے تھے۔ یہ غلطیاں ایپل انٹیلیجنس کے ساتھ چیلنجز کو نمایاں کرتی ہیں، جہاں خبریں فراہم کرنے والوں کے پاس AI کے تیار کردہ خلاصوں پر کوئی کنٹرول نہیں ہوتا جو ان کے برانڈ کے تحت جاری کیے جاتے ہیں، اور یہ ممکنہ طور پر غلط معلومات پھیلانے اور ان کی ساکھ کو نقصان پہنچانے کا سبب بن سکتے ہیں۔
ایجنٹک AI مصنوعی ذہانت کو ایک نئی سطح پر لے جا رہا ہے جو جنریٹیو AI سے آگے بڑھتا ہے۔ یہ مشابہتیں اور چیلنجز شیئر کرتا ہے لیکن منفرد فرق بھی رکھتا ہے۔ سیلزفورس کے سی ای او مارک بینیوف ایجنٹک AI کو پیش گوئی ماڈلز اور جنریٹیو AI جیسے چیٹ جی پی ٹی کے بعد AI کی ارتقاء کی "تیسری لہریں" کہتے ہیں۔ یہ نئی لہر ذہین ایجنٹس پر مشتمل ہے جو پیچیدہ کام خودمختار طریقے سے انجام دے سکتے ہیں۔ یہ AI ایجنٹس ڈیجیٹل ساتھی یا معاون کے طور پر کام کرتے ہیں، انسانی صلاحیتوں کو ان طریقوں سے بڑھاتے ہیں جو پہلے ناقابلِ تصور تھے۔ وہ گاہکوں کی تعاملات کا انتظام، ڈیٹا تجزیہ، اور کاموں کو حقیقی وقت میں آزادانہ طور پر انجام دے سکتے ہیں، پیشہ وارانہ فائدے اور سرمایہ کاری پر واپسی جو وسیع AI فراہم نہیں کر سکتا ہے۔ بی سی جی ایکس کے سیس آئیر جیسے صنعت کے رہنما اس بات کو تسلیم کرتے ہیں کہ ایجنٹک AI پیداواری عمل کو دوبارہ ڈیزائن کرنے کا ذریعہ ہے۔ تاہم، ایجنٹک AI کے لیے واضح اخلاقی رہنما خطوط کی ضرورت ہوتی ہے اور آپریشنل معیارات کی پیروی کے ساتھ توازن اور انصاف کو یقینی بنایا جاتا ہے۔ AI ایجنٹس کی تشکیل اور انتظام کے لیے درست صلاحیتوں کی ضرورت ہوتی ہے، جو اکثر تنظیموں کے اندر مل سکتی ہیں، لیکن اس کے لیے تعلیم کی ضرورت ہے۔ جنریٹیو AI کے برعکس، جو مختلف صنعتوں میں استعمال ہوتا ہے، ایجنٹک AI مخصوص ماحول پر توجہ مرکوز کرتا ہے، جہاں متوقع کاموں میں غلطی کے کم خطرات ہوتے ہیں۔ یہ موجودہ نظاموں کے ساتھ پیچیدہ انضمام پر مشتمل ہوتا ہے، جس میں فیصلہ سازی کی صلاحیتوں کو بڑھانے کے لیے تبدیلیاں ضروری ہوتی ہیں۔ جنریٹیو AI سے ایجنٹک AI کی طرف منتقلی کرنے کے لیے کاروبار کو چھوٹے پیمانے پر شروع کرنا چاہیے، بڑے اثر والے استعمال کے کیسز کی شناخت کرنی چاہیے، اور پائلٹ پروگرامز منعقد کرنے چاہیے۔ توجہ کو ورک فلو کی تبدیلی پر مرکوز کرنا چاہیے تاکہ معمولی کاموں کو کم کیا جا سکے اور انسان-مشین تعاون کو بڑھایا جا سکے۔ غیر یقینی، اعلی خطرے کے ماحول جیسے تحقیق و ترقی یا فارما میں ایجنٹک AI لاگو کرنے میں چیلنجز موجود ہیں، جہاں دقیق فہم ضروری ہے۔ ایجنٹک AI کی کامیابی کے لیے حقیقی وقت کے ڈیٹا کا اہم کردار ہوتا ہے۔ مسئلہ کے دائرے کی نمائندگی کرنے والے صاف، لیبل شدہ ڈیٹا کے ساتھ ایک سسٹم کی پہچان ضروری ہے تاکہ مؤثر AI ایجنٹس کی تخلیق کی جا سکے۔ جیسے جیسے ایجنٹک AI پر انحصار بڑھتا جائے گا، نئے نگران فریم ورک کی ضرورت ہوگی، خاص طور پر اہم شعبوں میں، جہاں انسانی مداخلت کے ذریعے غیر ارادی نتائج کو کم کرنے کی ضرورت ہوگی۔
مئی 2020 میں، میڈیا اور ٹیک کانگلومریٹ تھامسن رائٹرز نے چھوٹے قانونی AI اسٹارٹ اپ راس انٹیلیجنس کے خلاف مقدمہ دائر کیا۔ الزام یہ تھا کہ راس انٹیلیجنس نے ویسٹ لا، تھامسن رائٹرز کی قانونی تحقیق سروس سے مواد کا استعمال کرتے ہوئے امریکی حقِ اشاعت کے قوانین کی خلاف ورزی کی تھی۔ شروع میں، یہ کیس حقِ اشاعت کے قوانین پر توجہ مرکوز کرنے والی محدود برادری سے باہر کم توجہ حاصل کر سکا۔ تاہم، اب یہ ظاہر ہے کہ یہ مقدمہ— جس کا آغاز تخلیقی AI کے عروج سے دو سال پہلے ہوا تھا— پبلشرز اور AI کمپنیوں کے درمیان وسیع تنازعہ کا ابتدائی اقدام تھا، جو اب ملک بھر کی عدالتوں میں چل رہا ہے۔ اس تنازعے کا حل معلومات کے میدان اور AI سیکٹر کو دوبارہ متعین کر سکتا ہے، جس کا انٹرنیٹ استعمال کرنے والے لوگوں پر عالمی اثر ہو سکتا ہے۔ گزشتہ دو سالوں میں، AI کمپنیوں کے خلاف اسی طرح کے حقوقِ اشاعت کے کئی مقدمے دائر کیے گئے ہیں۔ مدعیوں میں مصنفین جیسے سارہ سلورمین اور تا نہیسی کوٹس، بصری فنکار، میڈیا آؤٹ لیٹس جیسے دی نیو یارک ٹائمز، اور موسیقی کی بڑی کمپنیاں جیسے یونیورسل میوزک گروپ شامل ہیں۔ یہ حقوق رکھنے والے دعویٰ کرتے ہیں کہ AI کمپنیوں نے ان کے مواد کو تجارتی لحاظ سے قیمتی AI ماڈلز کی تربیت کے لیے استعمال کیا، جسے یہ مؤثر طور پر چوری کے برابر سمجھتے ہیں۔ AI کمپنیاں اکثر "منصفانہ استعمال" کے نظریے کے ساتھ اپنا دفاع کرتی ہیں، یہ استدلال کرتے ہوئے کہ AI ٹولز کی ترقی کو بغیر رضامندی یا معاوضے کے کاپی رائٹ شدہ مواد کے جائز استعمال کے طور پر شمار کیا جا سکتا ہے۔ (منصفانہ استعمال کی عام طور پر قبول کیے جانے والی مثالیں پیروڈی، خبر کی رپورٹنگ، اور تعلیمی تحقیق ہیں۔) اہم تخلیقی AI کمپنیوں جیسے OpenAI، Meta, Microsoft, Google, Anthropic, اور Nvidia اس قانونی جنگ میں شامل ہیں۔ WIRED ان مقدمات کی پیشرفت کا قریب سے مشاہدہ کر رہا ہے۔ ہم نے بصری امدادیں تیار کی ہیں تاکہ اس بات کا پتہ لگانے اور سمجھنے میں مدد مل سکے کہ کون سی کمپنیاں اور حقوق رکھنے والے ان مقدمات کا حصہ ہیں، کیسز کہاں دائر کیے گئے ہیں، الزامات کی نوعیت، اور دیگر اہم معلومات۔
انٹرنیٹ کے آغاز کے بعد سے، ہم نے بہت سی ٹیکنالوجیز اور رحجانات دیکھے ہیں جیسے کہ جینوم کوڈنگ، 3D پرنٹنگ، بلاک چین، کینابیس، اور میٹاورس۔ ہر ایک نے ابتدائی مرحلے کی بڑی دلچسپی کا سامنا کیا لیکن اپنانے کی تخمینہ شدہ شرحوں کو زیادہ سمجھنے کی وجہ سے قابل قدر کمی کا سامنا کرنا پڑا۔ مصنوعی ذہانت (AI) بھی اسی طرح کی راہ پر چل سکتی ہے اگر اسے پختہ ہونے کے لیے وقت نہ دیا جائے، خاص طور پر جب کہ بہت سے کاروباروں کے پاس منافع بخش AI کے نفاذ کے لیے واضح منصوبے نہیں ہیں، جو کہ ایک قیاسی بلبلے کا اشارہ دیتے ہیں۔ 2025 میں AI بلبلے کو پھٹنے کی ایک وجہ GPU کی کمی کی متوقع حل ہو سکتی ہے، جس نے Nvidia کے اسٹاک کو عروج پر پہنچا دیا ہے۔ Nvidia نے اس کمی کا فائدہ اٹھاتے ہوئے اپنے ہارڈویئر کی قیمتوں کو نمایاں طور پر بڑھایا ہے، جس سے اس کے منافع میں اضافہ ہوا ہے۔ تاہم، یہ فائدہ ممکنہ طور پر ختم ہو جائے گا جب AMD جیسے حریف پیداواری سطح بڑھائیں گے اور بہت سے صارفین اپنی AI-GPUs تیار کرنا شروع کریں گے، جو کہ اگرچہ اتنے طاقتور نہیں ہوں گے، لیکن سستے اور زیادہ قابل رسائی ہوں گے۔ امریکی ریگولیٹری اقدامات بھی AI کی ترقی کی رفتار میں رکاوٹ ڈال سکتے ہیں۔ بائیڈن انتظامیہ نے AI چپس کے چینی برآمدات پر پابندی عائد کی ہے، جس کے نتیجے میں Nvidia اور Lam Research جیسے کمپنیوں پر اثر پڑا ہے، جن کے چین کے ساتھ بڑے ریوینیو تعلقات ہیں۔ یہ پالیسی صدر منتخب ٹرمپ کی انتظامیہ کے تحت تبدیل ہونے کا امکان نہیں ہے، جو تجارت کے تعلقات کو خراب کرسکتی ہے اور چین کو AI کی فروخت کو ممکنہ ٹیرف کے ساتھ متاثر کرسکتی ہے۔ مزید برآں، موجودہ AI اسٹاک کے تخمینے انتہائی زیادہ ہیں، اور ایسے تاریخی غیر مستقل سطح سے مماثلت رکھتے ہیں جو ڈاٹ کام بلبلے کے پھٹنے سے پہلے دیکھی گئی تھیں، جیسے Amazon اور Cisco Systems، جنہوں نے کبھی 30-40 گنا زیادہ فروخت کے ملٹیپلز چھوئے تھے۔ فی الحال، Nvidia اور Palantir کے تخمینے بھی اسی طرح بڑھے ہوئے ہیں، جس سے ممکنہ درستگی کا اشارہ ملتا ہے اگر سرمایہ کاروں کا جوش کم ہوتا ہے۔ آخر میں، دی موٹلی فول Nvidia اسٹاک کے ساتھ احتیاط برتنے کی تجویز دیتا ہے، جس میں یہ بتایا گیا ہے کہ ان کی اسٹاک ایکسپرٹ ٹیم نے بہتر سرمایہ کاری کے مواقع کا پتہ لگایا ہے جن میں ممکنہ طور پر خاطر خواہ آمدنی ہو سکتی ہے۔ خاص طور پر، ان کی سفارشات 2002 سے S&P 500 کی کارکردگی سے زیادہ رہی ہیں، جو قیاسی مارکیٹ کی صورتحال میں محتاط اسٹاک کے انتخاب کی اہمیت کو اجاگر کرتی ہے۔
میں نے صارف کے تخلیق کردہ تھیراپسٹ جی پی ٹی کے ذریعے چیٹ جی پی ٹی کی طبی قابلیت کو دریافت کیا، جو ایک سننے والا کان اور تسلی بخش مشورہ فراہم کرتا ہے، اگرچہ یہ پیشہ ورانہ تھراپی کا متبادل نہیں ہے۔ بہت سے سوشل میڈیا صارفین، جیسے میا ڈنہم، چیٹ بوٹس کو نئے نظریات حاصل کرنے اور اپنے جذبات کے اشتراک کے لیے استعمال کرتے ہیں، جو AI تعاملات کی بغیر تنقید، اور با آسانی دستیابی کی قدر کرتے ہیں۔ کچھ تحقیق سے پتہ چلتا ہے کہ چیٹ بوٹس ہلکی ذہنی صحت کے مسائل میں مددگار ہو سکتے ہیں، ماہرین جیسے ڈاکٹر رسل فلمر اور ڈاکٹر مارلن وی چیٹ بوٹس کو انسانی تھراپسٹس کے ساتھ استعمال کرنے پر زور دیتے ہیں کیونکہ ممکنہ اخلاقی خدشات اور درستگی کے مسائل ہیں۔ ماہرین کا کہنا ہے کہ چیٹ بوٹس حفاظتی حدود سے محروم ہو سکتے ہیں اور غلط یا متعصب معلومات فراہم کر سکتے ہیں۔ کریکٹر اے آئی جیسی کمپنیوں کے خلاف مقدمے ان خطرات کو اُجاگر کرتے ہیں۔ ان نقصانات کے باوجود چیٹ بوٹس ان افراد کیلئے قیمتی ہو سکتے ہیں جنہیں روایتی تھراپی تک رسائی نہیں ہے، اگرچہ یہ انسانی ہمدردی اور بصیرت کا متبادل نہیں ہیں۔ ڈاکٹر ڈینیئل کیمل نے نوٹ کیا کہ چیٹ بوٹس علاجی تکنیکوں کی نقل کرتے ہیں، لیکن ان میں گہرائی اور شخصی پہلو کی کمی ہے۔ وہ چیٹ بوٹس کی حدود کو سمجھنے اور رازداری کی اہمیت پر زور دیتے ہیں، کیونکہ AI HIPAA کی تعمیل نہیں کرتا۔ مستقبل کی تحقیق شاید ذہنی صحت میں AI کے کردار کو مزید واضح کرے، اور لوگ جیسے ڈنہم مختلف علاج کے طریقوں کے احترام کی حمایت کرتے ہیں۔
- 1