اوپن اے آئی کا سورہ ایپ منافع ہونے والی پرتشدد اور نسل پرستانہ مصنوعی ذہانت سے تیار کردہ ویڈیوز کے باعث تنقید کا سامنا
Brief news summary
OpenAI کا سورا ایپ، جو AI پر مبنی تخلیقی ویڈیو پروڈکشن کے لیے تیار کی گئی ہے، اس کے پُرتشویش مواد بنانے کی وجہ سے تنازعے میں گھری ہوئی ہے، جن میں پرتشدد اور نسل پرستانہ مواد شامل ہیں۔ اگرچہ اس ایپ میں نگرانی کے آلات شامل ہیں، صارفین نے ان حفاظتی تدابیر کو عبور کرنے میں کامیابی حاصل کی ہے، جس سے AI کے غلط استعمال کو روکنے میں مشکلات کی نشاندہی ہوتی ہے۔ ابتدا میں کہانی سنانے اور تعلیم میں انقلابی تصور کے طور پر سراہا گیا، اب سورا کو محبان حقوق اور پالیسی سازوں کی طرف سے نقصان دہ نسلی کلیشے اور پرتشدد تصاویر کے بارے میں تنقید کا سامنا ہے۔ اس کے جواب میں، OpenAI نے جدید الگورتھمز اور انسانی نگرانی میں اضافہ کرکے نگرانی کو بہتر بنانے کا وعدہ کیا ہے۔ ماہرین کا کہنا ہے کہ صرف تکنیکی حل کافی نہیں ہیں اور انہیں مضبوط قانون سازی اور ڈیویلپرز، ریگولیٹرز، اور واچ ڈاگز کے مابین تعاون کی ضرورت ہے تاکہ اخلاقی AI کے استعمال کو یقینی بنایا جا سکے۔ شہری حقوق کی تنظیمیں واضح پالیسیاں اور سخت نفاذ کا مطالبہ کرتی ہیں تاکہ معاشرتی نقصان کو کم کیا جا سکے۔ سورا کا یہ معاملہ حقیقی مصنوعی میڈیا کے انتظام میں مشکلوں کو ظاہر کرتا ہے، اور اسی وقت تخلیقی صلاحیت کو فروغ دیتا ہے۔ OpenAI اپنی حفاظت کے اقدامات، صارفین کی تعلیم، اور بیرونی ماہرین کے ساتھ شراکت داری پر توجہ مرکوز کیے ہوئے ہے تاکہ ایسا AI تیار کیا جائے جو معاشرے کے فائدے کے لیے ہو اور بیہودہ استعمال کو کم سے کم کرے۔OpenAI کے حال ہی میں متعارف کرائے گئے سورہ ایپ پر سخت تنقید ہو رہی ہے کیونکہ اس کا استعمال حساس اور متنازعہ ویڈیوز بنانے کے لیے کیا جا رہا ہے، جن میں تشدد اور نسلی تعصب پر مبنی مواد شامل ہے۔ حالانکہ OpenAI نے نقصان دہ مواد سے بچاؤ کے لیے مواد کی نگرانی کے اقدامات کیے ہیں، لیکن صارفین نے ان حفاظتی انتظامات کو چشم پوشی کرنے کے ذرائع تلاش کیے ہیں، جس سے ایسے مواد تیار کیے جا رہے ہیں جو عام طور پر جارحانہ اور خطرناک سمجھے جاتے ہیں۔ ابتدائی طور پر اس ایپ کی جدید انداز میں میڈیا کہانی سنانے کے لیے تعریف کی گئی تھی، کیونکہ یہ صارفین کو صحیح اور دلچسپ ویڈیوز بنانے کا موقع فراہم کرتی ہے، جس سے فنکاروں، اساتذہ اور تخلیق کاروں کے لیے نئی راہیں کھلتی ہیں۔ تاہم، اس کی کھلی نوعیت نے زیادتی کو کنٹرول کرنے میں اہم چیلنجز ظاہر کیے ہیں، کیونکہ کچھ صارفین نے تشدد اور نسلی تعصبات کی نمائندگی کرنے والی ویڈیوز بنائی ہیں، جن پر عوام میں منفی ردعمل اور وکلا تنظیموں اور حکومتی اداروں کی تشویش پائی گئی۔ ان واقعات نے OpenAI کے مواد کی نگرانی کے نظام میں کمزوریاں ظاہر کی ہیں اور یہ بھی ظاہر کیا ہے کہ کس طرح تخلیقی اظہار اور نقصان دہ مواد کے درمیان سرحدیں دھندلی ہو سکتی ہیں۔ جواب میں، OpenAI نے ذمہ دار AI کی ترقی کے حوالے سے اپنی کمٹمنٹ دوبارہ ظاہر کی اور سورہ میں نگرانی کے آلات کو بہتر بنانے کی جاری کوششوں کا تفصیل سے ذکر کیا ہے۔ ان میں ایسے الگورتھمز کو بہتر بنانا شامل ہے جو پرتشدد یا نسلی تعصب پر مبنی مواد کو بہتر طریقے سے شناخت اور فلٹر کریں، اور فلگ کیے گئے مواد کا جائزہ لینے کے لیے انسانی نگرانی کو بڑھانا۔ تاہم، ماہرین کا کہنا ہے کہ موجودہ طریقے مکمل طور پر زیادتی کو روکنے میں ناکام ہو سکتے ہیں، خاص طور پر جب مصنوعی میڈیا کا حقیقت پسندی والا معیار بہت بلند ہوتا ہے۔ اس لیے آواز اٹھ رہی ہے کہ AI کی مواد تخلیق پر نگراں قوانین اور ضوابط کو مضبوط کیا جائے تاکہ innovación اور اخلاقی اصولوں، عوامی تحفظ کے بیچ توازن قائم رہ سکے۔ سورہ کے گرد یہ تنازعہ اس مکمل تصویر کا حصہ ہے، جس میں تیزی سے ترقی کرتی اور آسانی سے دستیاب ہونے والی جنریٹیو AI ٹیکنالوجیز میں غلط استعمال کے امکانات بڑھ رہے ہیں۔ ان چیلنجز سے نمٹنے کے لیے، ترقی کنندگان، ریگولیٹرز اور صارفین کو مل کر کام کرنا ہوگا، جس میں شامل ہو سکتے ہیں بہتر مواد کے رہنما اصول، شفافیت کی رپورٹنگ، اور AI سے بنائے گئے میڈیا کے لیے ذمہ داری کا مضبوط نظام۔ سول حقوق کی تنظیموں نے OpenAI سے مطالبہ کیا ہے کہ وہ نسلی تعصب اور تشدد پر مبنی مواد کے خلاف کارروائی کو تیز کرے، واضح صارف پالیسیوں، سخت نفاذ، اور خارجی نگرانی والے اداروں کے ساتھ شراکت داری کا مطالبہ بھی کیا ہے۔ صنعت کے ماہرین کے مطابق، OpenAI کا یہ مسئلہ ایک وسیع تر AI کے نظام کے مسائل کی تصویر ہے، جہاں تخلیقی صلاحیت کو بڑھانے کے ساتھ ساتھ زیادتی کے خطرات بھی ہیں۔ سب سے بڑا چیلنج یہ ہے کہ ایسے نظام تیار کیے جائیں جو بدلتے ہوئے خراب رویوں کا مؤثر انداز میں جواب دے سکیں، بغیر اس کے کہ جائز تخلیقی کام کو کمزور کیا جائے۔ مستقبل میں، OpenAI نے بیرونی ماہرین اور ریگولیٹرز کے ساتھ مل کر سیفٹی میکانزم اور نگرانی کے طریقے مضبوط بنانے کی خواہش ظاہر کی ہے، اور صارفین کو ذمہ داری سے AI کے استعمال اور نقصان دہ مواد کے نتائج کے بارے میں آگاہ کرنے پر زور دیا ہے۔ آخری طور پر، سورہ ایپ کے گرد یہ تنازعہ مصنوعی ذہانت، تخلیقی آزادی اور سماجی ذمہ داری کے موضوعات پر اہم سوالات اٹھاتا ہے۔ جیسے ہی AI ٹیکنالوجیز میں ترقی ہوتی ہے، جامع اور مؤثر نگراں نظام کا قیام بہت ضروری ہوتا جا رہا ہے تاکہ یہ یقینی بنایا جا سکے کہ یہ ترقیات معاشرے کے فائدے کے لیے ہوں اور نقصان دہ نتائج سے بچاؤ ممکن ہو۔
Watch video about
اوپن اے آئی کا سورہ ایپ منافع ہونے والی پرتشدد اور نسل پرستانہ مصنوعی ذہانت سے تیار کردہ ویڈیوز کے باعث تنقید کا سامنا
Try our premium solution and start getting clients — at no cost to you