اوپن اے آئی نے جونی آئی کے آئی او مصنوعات کو 6.5 ارب ڈالر میں خرید لیا، تاکہ اے آئی ہارڈویئر میں انقلاب لایا جا سکے۔

OpenAI نے مصنوعی ذہانت کے ہارڈ ویئر شعبے میں اہم قدم اٹھاتے ہوئے معروف آئی فون ڈیزائنر جونی ایو کی قیادت میں ڈیزائن کمپنی io Products کو خرید لیا ہے، جس کی قیمت تقریباً 6. 5 ارب ڈالر ہے۔ اس میں 5 ارب ڈالر کی مساوی حصص شامل ہیں اور یہ OpenAI کی جدید ڈیزائن کو سرِ فہرست AI ٹیکنالوجی کے ساتھ ملانے کے عزم کا مظہر ہے۔ اس سے پہلے، OpenAI نے io Products میں 23% حصے داری رکھی تھی جو ایک سابقہ شراکت داری کا نتیجہ تھی، لیکن اب اس کی مکمل ملکیت اس دیرینہ حکمت عملی کے تعلق کو ظاہر کرتی ہے۔ جونی ایو، جو اپنی آئی فون ڈیزائنز کے لیے دنیا بھر میں معروف ہیں اور اسٹیو جابز کے ساتھ مل کر Apple کے مشہور ڈیزائنر رہے ہیں، نے 2023 میں io Products کی بنیاد رکھی۔ ان اور OpenAI کے CEO سام آلٹمن کے درمیان تعاون خاموشی سے شروع ہوا، جس کا مقصد ڈیزائن جدیدیت کو AI کے ساتھ جوڑنا تھا۔ حالانکہ ایو براہ راست OpenAI میں شامل نہیں ہوں گے، ان کی ڈیزائن فرم LoveFrom آزاد رہے گی اور OpenAI اور io Products کے لیے ڈیزائن کے کام جاری رکھے گی۔ اس ترتیب سے ایو کے بصیرت مند ڈیزائن کو OpenAI کی AI ترقی کے ساتھ بخوبی مربوط کیا جائے گا، تاکہ مصنوعات کے ڈیزائن کی اہمیت اور تخلیقی خودمختاری برقرار رہے۔ اس خریداری کا مقصد “مادی AI تصویریں” تیار کرنا ہے — ایسے آلات جو جنریٹیو AI صلاحیتوں کو قابلِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِ i. e. , vehicles, robots, and wearables—میں شامل کریں، اور یہ Google اور Meta جیسے ٹیکنالوجی اداروں کی کوششوں کے ساتھ ہم آہنگ ہوں۔ یہ ایک جدید قدم ہے تاکہ روزمرہ چیزوں میں جدید AI کو شامل کیا جائے اور یوزر کے تعامل کو سکرین سے نکل کر زیادہ حقیقت پسند بنایا جائے۔ OpenAI کے ایک سینئر عہدیدار پیٹر ویلانڈر، جن کا تجربہ ہارڈ ویئر اور روبوٹکس کے ابتدائی مرحلے کی تحقیق میں ہے، io شعبہ کی قیادت کریں گے۔ ان کی قیادت میں، ڈیزائن اور AI کو عملی، مارکیٹ کے لیے تیار ہارڈ ویئر میں یکجا کیا جائے گا، جو OpenAI کے اختراعی عزائم کو تیز کرنے کے ساتھ معیار اور قابلیت کو بھی یقینی بنائے گا۔ OpenAI ابھی بھی نان پرافٹ ادارہ ہے، لیکن اپنی بڑھتی ہوئی تجارتی سرگرمیوں کی حمایت کے لیے ساختی تبدیلیاں تلاش کر رہا ہے۔ یہ کوشش منافع کمانے کے ساتھ ساتھ فائدہ مند AI کو فروغ دینے کے مشن کے توازن سے انجام دی جا رہی ہے۔ LoveFrom اور OpenAI دونوں سان فرانسسکو میں قائم ہیں، جو شہر کے تخلیقی اور فناوری کے ماحولیاتی نظام کے ساتھ رابطہ کو مضبوط بناتا ہے۔ اس زمینی فاصلے سے خیالات کے تبادلے اور شراکت داری کو فروغ ملنے کی توقع ہے۔ جونی ایو کی مشہور ڈیزائن مہارت کو OpenAI کی جنریٹیو AI جدیدیت کے ساتھ ملانے سے، یہ کمپنیاں ایسی انقلابی مصنوعات تیار کرنے کے حق میں ہیں جو انسان اور ٹیکنالوجی کے تعامل کو بدل کر رکھ دیں گی۔ یہ منصوبہ AI سے چلنے والی صارف کے آلات، روبوٹکس، اور قابلَُِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِِ Thank you
Brief news summary
OpenAI نے مکمل طور پر io Products، جس کا ڈیزائن فرم اعلیٰ جانی آئوی کے قیادت میں ہے، کو 6.5 ارب ڈالر کے معاہدے پر حاصل کر لیا ہے۔ اس کا مقصد اس کی AI ہارڈوئیر صلاحیتوں کو مزید بڑھانا ہے۔ اس سے قبل، OpenAI کے پاس 23 فیصد حصہ داری تھی، اب وہ مکمل کنٹرول میں ہے، جس میں آئوی کی ڈیزائن مہارت اور OpenAI کی جنریٹو AI ٹیکنالوجی کا امتزاج شامل ہے۔ آئوی کی علیحدہ کمپنی، LoveFrom، خود مختار رہی گی، جو دونوں کمپنیوں کو تخلیقی اور حکمت عملی میں توازن برقرار رکھنے کے لیے ڈیزائن رہنمائی فراہم کرتی ہے۔ یہ حصول "فزیکل AI ایمبیڈیمنٹس" کی ترقی پر مرکوز ہے، جس میں AI کو گاڑیوں، روبوٹ اور وئیرایبلز میں شامل کیا جائے گا، جو ہارڈوئیر حل میں ایک جاری تحریک کی نشاندہی کرتا ہے۔ Peter Welinder، جو ہارڈوئیر اور روبوٹکس میں تجربہ کار OpenAI کے ایگزیکٹو، io Products کی قیادت کریں گے تاکہ نئی اختراعات کو آگے بڑھایا جا सके۔ جب کہ OpenAI اپنی تجارتی سرگرمیاں بڑھا رہا ہے، یہ اپنی غیر منافع بخش حکمرانی کو برقرار رکھتا ہے اور ساختی تبدیلیوں کے امکانات تلاش کر رہا ہے۔ سان فرانسسکو میں واقع یہ دونوں کمپنیاں مل کر دنیا کلاس ڈیزائن کو جدید AI کے ساتھ ملانے سے انسان اور ٹیکنالوجی کے تعامل میں انقلاب لائیں گی، اور AI سے چلنے والے صارف پروڈکٹس اور روبوٹکس کے مستقبل کی شکل تیار کریں گی۔
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

سرج AI سان فرانسسکو کا جدید ترین اسٹارٹ اپ ہے جس …
سرج ای آئی، ایک مصنوعی ذہانت کی تربیتی کمپنی، ایک مقدمے کا سامنا کر رہی ہے جس میں اس پر الزام لگایا گیا ہے کہ اس نے کنٹریکٹرز کو غلط درجہ بندی میں رکھا ہے تاکہ وہ کچھ عالمی معروف ٹیک کمپنیوں کے استعمال کردہ اے آئی سافٹ ویئر کے لیے چیٹ کے ردعمل کو بہتر بنانے کے لیے ملازم نہ سمجھا جائے۔ پیش کردہ کلاس ایکشن دعویٰ میں کہا گیا ہے کہ "ڈیٹا اینوٹیشن کرنے والے" افراد، جنہیں سرج ای آئی کے ذریعے یہ یقینی بنانے کے لیے رکھا گیا تھا کہ میٹا اور اوپن اے آئی کے زیر استعمال جدید ذیادہ تر نظام درست اور انسان جیسے متن کے جواب پیدا کریں، کو جان بوجھ کر آزاد ٹھیکیدار کے طور پر درجہ بندی کیا گیا، تاکہ انہیں ملازم کے فوائد سے محروم رکھا جا سکے۔ پیر کو دائر ہونے والے اس مقدمے میں، کیلیفورنیا سے تعلق رکھنے والے مدعی ڈومینیک ڈونجوان کاویلیر II اور پبلک انٹریسٹ لاء فرم کلارکسن کی نمائندگی میں، الزام عائد کیا گیا ہے کہ ان اور دیگر ڈیٹا اینوٹیشن کرنے والے افراد کو بغیر معاوضہ تربیت لینا پڑی اور ان کے لیے تقریبا ناممکن نافذ ہونے والی مقررہ تاریخوں کا سامنا رہا، جس کے نتیجے میں ان کی تنخواہوں میں کمی ہوئی۔ شکایت کے مطابق، سان فرانسسکو میں واقع سرج ای آئی، جسے سرج لابز بھی کہا جاتا ہے، اور اس کی ذیلی کمپنیاں "بہت زیادہ منافع کما رہی ہیں کیونکہ انہوں نے جان بوجھ کر مزدوروں کو بنیادی کام کرنے کے لیے اجرت اور فوائد سے محروم رکھا ہے، جو کہ مدعا علیہان کے کاروبار کو مضبوط بنیاد فراہم کرتا ہے۔" سرج ای آئی نے رپوٹ کے لیے کوئی ردعمل نہیں دیا۔ اگرچہ حالیہ برسوں میں اے آئی ڈیٹا ٹریننگ کمپنیوں پر تنقید کی گئی ہے کہ انہوں نے کینیا جیسی جگہوں پر کارکنوں کے ساتھ ناانصافی کی ہے، جیسے ہی اے آئی سیکٹر تیزی سے وسعت پا رہا ہے، ویسے ہی کیلیفورنیا اور امریکہ بھر میں کارکنوں کی طرف سے اسی طرح کی شکایات بڑھتی جا رہی ہیں۔ اسی نوعیت کے مقدمات بڑی اے آئی ٹریننگ فرم اسکیل ای آئی کے خلاف بھی دائر کیے گئے ہیں، جن میں مختلف کنٹریکٹر بیس کو اپنے کلائنٹس کے لیے اے آئی ٹیکنالوجیز کی تربیت کے لیے ملازمت دی گئی ہے، جن میں اوپن اے آئی، گوگل، اور ریاست ہائے متحدہ امریکہ کے دفاعی محکمہ شامل ہیں۔ رپورٹس کے مطابق، سرج ای آئی نے تقریباً 25 ملین美元 جمع کیے ہیں، جس کا اندازہ کرنچ بیس کے مطابق ہے۔ دوسری طرف، رائٹرز کے مطابق، اسکیل ای آئی ممکنہ ٹیندر آفر میں 250 ارب ڈالر کی قدر کے لیے کوشش کر رہی ہے۔ دسمبر میں، مدعی اسٹیو میکننی، جو نیوبری پارک کے رہائشی ہیں اور اسکیل ای آئی کی ذیلی کمپنی آوٹ لائر ای آئی کے ذریعے "ٹاسکر" کے طور پر ملازم تھے، نے کمپنی کے خلاف مقدمہ دائر کیا، جس میں یہ دعویٰ کیا گیا کہ انھیں 25 ڈالر فی گھنٹہ تنخواہ کا وعدہ کیا گیا تھا لیکن وہ اس کا ایک حصہ ہی وصول کر سکے۔ مقدمے میں یہ بھی کہا گیا ہے کہ ان کارکنوں کو جنہوں نے داخلی میسجنگ پلیٹ فارم سلائیک کے ذریعے معاوضہ کی ادائیگی کے طریقوں کو چیلنج کیا، اچانک ایپ سے خارج کر دیا گیا؛ یہ مقدمہ بھی قانون فرم کلارکسن کے ذریعے دائر کیا گیا ہے، جو کہ میلبو میں واقع ہے۔ جنوری میں، اسکیل ای آئی کے کنٹریکٹرز نے ایک اور مقدمہ درج کیا جس میں الزام عائد کیا گیا کہ انہیں الفاظ کے ذریعے خوفناک، تکلیف دہ "بگاڑی ہوئی تصاویر" کا جائزہ لینے پر مجبور کیا گیا، جس سے ذہنی رنج اور PTSD سمیت نفسیاتی نقصان پہنچا۔

ٹم ایممر نے بلاک چین ریگولیٹری یقین دہانی کا قانو…
منی سوٹا کے نمائندہ ٹام ایممر نے کانگریس میں بلاک چین ریگولیٹری یقین دہانی کا قانون دوبارہ پیش کیا ہے، اس بار نئی ہم آہنگ دو طرفہ حمایت اور صنعت کی طرف سے حوصلہ افزائی کے ساتھ۔ اس قانون کا مقصد یہ واضح کرنا ہے کہ وہ ڈویلپرز اور سروس فراہم کرنے والے جو صارفین کے فنڈز کی حوالگی نہیں کرتے — جیسے کہ مائنرز، ویلیڈیٹرز، اور والیٹ فراہم کرنے والے — انہیں پیسہ ترسیل کرنے والوں کے طور پر نہیں جانا چاہئے۔ اس تمیز کے قیام سے، یہ بل ان شرکاء کو ریاستی یا مرکزی مالی قوانین کے تحت لائسنسنگ کی ضروریات سے بچانے کی کوشش کرتا ہے۔ ایمر، جو کانگریسی کرپٹو کاکس کے شریک چیئر ہیں، اور رچ ٹوریز کے ساتھ مل کر، 21 مئی کے اعلان میں کہا کہ یہ اقدام "معقول وضاحت" فراہم کرتا ہے تاکہ یقینی بنایا جا سکے کہ تخفیف بیرون ملک نہ جائے۔ انہوں نے زور دیا کہ واضح قانونی رہنمائی کے بغیر امریکہ کو ترقیاتی عوامل کو زیادہ کرپٹو دوستانہ حکمرانوں کے حوالے کرنے کا خطرہ ہے۔ ٹوریز نے بھی اس رائے کا اظہار کیا، اور اس نئے بل کو ایک "سمارٹ، تیز تر فریم ورک" قرار دیا جو پہلے کے تاثرات سے بہتر بنایا گیا ہے، اور واضح قواعد فراہم کرتا ہے بغیر ضروری نگرانی کی قربانی کے۔ انہوں نے کہا، "اگر ہم اگلی نسل کے تعمیرکاروں کو امریکہ میں رکھنا چاہتے ہیں، تو اس قسم کی قانونی وضاحت ضروری ہے۔ ہم پرانی یا غلط طریقے سے لاگو قوانین کو امریکہ کی صلاحیت اور ٹیکنالوجی کو بیرون ملک لے جانے کا موقع نہیں دینا چاہئے۔" ایمر نے پہلے 2018 میں یہ بل پیش کیا تاکہ غیر قابو والے بلاک چین ڈویلپرز کو پیسہ ترسیل کے قوانین میں واضح کیا جائے، اور اسے مختلف بار پھر پیش کیا گیا ہے۔ اس سے پہلے والی ورژن 2023 میں H

فرضی افسانہ: ایک اخبار کی گرمیوں کی کتابوں کی فہر…
موسمی مطالعہ فہرست کی اشاعت کا ایک حالیہ واقعہ صحافت میں مصنوعی ذہانت (AI) کے استعمال سے جُڑی چیلنجز اور خطرات کو بے نقاب کرتا ہے۔ "Heat Index" ضمنی حصہ، جسے کنگ فیچرز نے تقسیم کیا ہے اور شکاگو سن-ٹائمز اور فلپین انکوائریئر جیسے بڑے اخباروں میں شائع کیا گیا، کئی غیر موجود کتابیں غلطی سے شامل کر دی گئیں۔ یہ غلطی خود Freelance صحافی مارکو بوسلیا سے ہوئی، جس نے فہرست مرتب کرنے کے لیے AI پر بھرپور اعتماد کیا لیکن عنوانات کی صداقت کی تصدیق کیے بغیر۔ اس فہرست میں شامل نصف سے زیادہ کتابیں فرضی تھیں جن میں سے کچھ کو بڑے اور معروف مصنفین جیسے اینڈی وئیر، جو "The Martian" کے لیے جانے جاتے ہیں، اور من جن لی، جو "Pachinko" کی مصنفہ ہیں، پر منسوب کیا گیا۔ دونوں مصنفین نے ان فرضی کاموں سے کسی بھی تعلق کا انکار کیا ہے۔ یہ غلطی اس بات کو اجاگر کرتی ہے کہ جب AI سے تیار کنٹینٹ سخت انسانی تصدیق اور تدوینی نگرانی کے بغیر جاری کیا جائے تو کیا خطرات سامنے آتے ہیں۔ کنگ فیچرز سینڈیکیٹ، جو ملک بھر کے اخباروں کو مختلف قسم کا سینیٹڈ مواد فراہم کرتا ہے، نے اس ضمنی حصہ کی تیاری میں AI کے استعمال کے سخت اصولوں کی خلاف ورزی کو تسلیم کیا۔ سینڈیکیٹ نے ڈیجیٹل میڈیا اور ٹیکنالوجی کی تیزی سے ترقی کے دوران تدوینی معیار اور انسانی نگرانی کی اہمیت پر زور دیا۔ یہ واقعہ میڈیا میں AI سے جُڑی دیگر پیچیدگیوں کا ایک نمونہ ہے۔ مثلاً، کھیلوں کے معترف مجلے "Sports Illustrated" کو غیر حقیقی مصنفین کے کریڈٹ دینے کے بعد تنقید کا سامنا کرنا پڑا، جبکہ گینٹ، AI سے تیار شدہ کھیلوں کے مضامین میں غلطیوں کے حوالے سے مشکلات کا سامنا رہا۔ ایسے واقعات اس بات کی نشاندہی کرتے ہیں کہ جب میڈیا ادارے AI ٹولز کو اپنے ورک فلو میں شامل کرتے ہیں تو انہیں کئی پیچیدہ ذمہ داریوں کا سامنا ہوتا ہے۔ معلومات کے غلط پھیلاؤ کے بعد، شکاگو سن-ٹائمز اور فلپین انکوائریئر دونوں نے اپنی ڈیجیٹل ایڈیشن سے غلط "Heat Index" ضمنی حصہ ہٹا دیا ہے اور مستقبل میں کسی قسم کے مسائل سے بچاؤ کے لیے اپنی شراکت داریاں اور تدوینی طریقہ کار کا دوبارہ جائزہ لے رہے ہیں۔ صنعت کے ماہرین اس واقعہ کو AI کی انسانی فیصلے کی جگہ لینے کی محدودیتوں کا ایک تنبیہی پیغام تصور کرتے ہیں اور اس کے لیے تدوینی نگرانی کی اہمیت کی تصدیق کرتے ہیں۔ مارکو بوسلیا نے اس پورے معاملے کی ذمہ داری قبول کی ہے اور اپنے مستقبل کے بارے میں افسوس اور غیر یقینی کا اظہار کیا ہے۔ اس اعتراف سے ظاہر ہوتا ہے کہ آزاد کارکنان کے لیے AI ٹیکنالوجیز کے استعمال میں کارکردگی اور درستگی کے درمیان توازن قائم کرنا کتنا مشکل ہوتا ہے۔ اس تنازع نے صحافت میں AI کے اخلاقی استعمال، AI کے کردار کی شفافیت، اور سخت تصدیقی پروٹوکولز کی ضرورت پر وسیع پیمانے پر گفتگو کو جنم دیا ہے۔ جیسے جیسے ٹیکنالوجی ترقی کرتی جارہی ہے، دنیا بھر کے میڈیا اداروں کے لیے واضح ہدایات تیار کرنا ضروری ہوگا تاکہ جدت اور دیانتداری کا توازن برقرار رکھا جا سکے۔ بالآخر، یہ فرضی موسم گرما کی مطالعہ فہرست کی کہانی اس بات کی یاد دہانی ہے کہ جدید صحافت میں توازن کی ضرورت کتنی اہم ہے۔ اگرچہ AI مواد کی تخلیق کو بہتر بنانے اور کام کو تیز کرنے کے لیے زبردست امکانات فراہم کرتا ہے، لیکن یہ انسانی مدیران کے اس بنیادی کردار کو بدل نہیں سکتا جس میں معلومات کی صحت مندی، اعتماد اور معتبریت کو یقینی بنایا جاتا ہے۔ یہ واقعہ ایک وقت کی ضرورت ہے کہ ٹیکنالوجی کی ترقی کے ساتھ ساتھ خبروں کے شعبے میں نگرانی اور ذمہ داری کا معیار بھی بلند کیا جائے تاکہ صنعت کی ساکھ اور معیارات کو قائم رکھا جا سکے۔

ڈی ایم جی بلاک چین سلوشنز نے چوتھے مالیاتی سہ ماہ…
ڈ ایم جی بلاک چین سلوشنز انک۔ (TSX-V: DMGI)، ایک عمودی انضمام والی بلاک چین اور ڈیٹا سینٹر ٹیکنالوجی کمپنی، نے 21 مئی 2025 کو اپنی مالی سال کے دوسرے کوارٹر 2025 کے نتائج کا اعلان کیا۔ تمام رقمیں کینیڈین ڈالرل میں ہیں جب تک کہ دیگر صورت حال کا ذکر نہ ہو۔ دلچسپی رکھنے والے قارئین کمپنی کے 31 مارچ 2025 کے بغیر آڈٹ شدہ سہ ماہی مالی بیانات اور مینجمنٹ کے تبصرہ و تجزیہ کا جائزہ لیں، جو www

نوجوان کی موت کے حوالے سے مقدمہ، AI چیلپٹ کی آزاد…
فلوریڈا کے ٹالاہاسی میں ایک وفاقی جج نے Character Technologies، جو کہ AI چیٹ بوٹ پلیٹ فارم Character

جنینس ایکٹ نے سینٹ کی منظوری حاصل کر لی، ہاؤس کے …
21 مئی کو، امریکی قانون سازوں نے دو بلاک چین سے متعلق قوانین پر پیش رفت کی، جن میں سے ایک جیینیئس ایکٹ کو بحث کے لیے منظور کیا گیا اور دوسرے بٹ کوائنری ریگولیٹری سرٹیفیکیٹ ایکٹ کو ہاؤس میں دوبارہ پیش کیا گیا۔ حکومت اور انوکھائی ضرورت برائے انوکھائی ایکٹ، یا جیینیئس ایکٹ، کے ساتھ آگے بڑھنے کے لیے موشن کو 69-31 کے ووٹ سے منظور کیا گیا، جس سے رسمی بحث اور ترمیمی عمل شروع ہونے کا راستہ ہموار ہوا۔ یہ موشن 19 مئی کو 66-32 کے کامیاب کلاؤچر ووٹ کے بعد آگیا، جس نے ابتدائی مذاکرات کو مکمل کیا اور بل کے لیے دوطرفہ حمایت ظاہر کی۔ سینیٹ میں جیینیئس ایکٹ پر بحث جیینیئس ایکٹ، استحکام کو برقرار رکھنے والے سکے (سٹیبِل کوائن) کی جاری کرنے کے لیے معیارات وضع کرتا ہے، جس کے تحت جاری کنندگان کو اعلیٰ معیار کے نقدی ذخائر، جیسے کہ امریکی حکومت کے سرکاری بانڈز یا بیمہ شدہ جمعات، مکمل طور پر ایک:1 کی حمایت کے ساتھ رکھنا لازمی ہے۔ یہ آمدنی پیدا کرنے والی مصنوعات کی پیشکش پر پابندی عائد کرتا ہے اور جاری کنندگان کو ہدایت کرتا ہے کہ وہ اپنے صارفین کو جانیں (KYC) قواعد، مشتبہ سرگرمیوں کی نگرانی، اور منی لانڈرنگ کے خلاف پروگراموں کی پابندی کریں۔ جاری کرنے کے حجم کے مطابق، جاری کنندگان کو وفاقی ریگولیٹرز یا وفاقی طور پر تصدیق شدہ ریاستی ریگولیٹرز کی نگرانی میں کام کرنا ہوگا۔ بحث کے لیے منظوری میں ترمیمی عمل شامل ہے، جو تفصیلی گفتگو اور بحث کی حدود کی اجازت دیتا ہے۔ یہ کھلا عمل سینیٹرز کو ترمیمات پیش کرنے اور حتمی ووٹ سے پہلے ان کا جائزہ لینے کا موقع فراہم کرتا ہے۔ بلاک چین ریگولیٹری سرٹیفیکیٹ ایکٹ ہمزمانی طور پر، ہاؤس کے قانون سازوں نے ایک اور بل دوبارہ پیش کیا ہے تاکہ بلاک چین ڈویلپرز کے لیے ریگولیٹری وضاحت کو بہتر بنایا جا سکے۔ نمائندے ٹام ایممر (آر-ایم این) اور رچھی ٹوریس (ڈی-این وائی) نے بلاک چین ریگولیٹری سرٹیفیکیٹ ایکٹ داخل کیا تاکہ سافٹ ویئر ڈویلپرز اور بلاک چین سروس فراہم کنندگان کو، جو صارفین کے اثاثے کی نگرانی نہیں رکھتے، رسمی طور پر تحفظ فراہم کیا جا سکے۔ اس قانون کے مطابق، جسے "بلاک چین ریگولیٹری سرٹیفیکیٹ" کہا جاتا ہے، یہ بل ایک وفاقی محفوظ پناہ گاہ تجویز کرتا ہے جو ڈیولپرز اور نوڈ آپریٹرز کو صرف بلاک چین سافٹ ویئر تخلیق یا برقرار رکھنے کی بنیاد پر پیسے منتقل کرنے والے، مالیاتی ادارے یا دیگر ریگولیٹڈ ثالث کہلانے سے روکتا ہے۔ یہ قانون "بلاک چین ڈیولپر" کو کسی بھی فریق کے طور پر تعریف کرتا ہے جو غیر مرکزی نیٹ ورکس کے لیے سافٹ ویئر تخلیق یا برقرار رکھتا ہے، اور "کنٹرول" کو قانونی اتھارٹی قرار دیتا ہے جس کے ذریعے بغیر تیسری پارٹی کے مداخلت کے، ڈیجیٹل اثاثوں تک رسائی اور لین دین کی جا سکتی ہے۔ مزید برآں، یہ بل واضح کرتا ہے کہ اگرچہ ڈیولپرز یا خدمات فراہم کرنے والے صارفین کے ڈیجیٹل اثاثوں پر کنٹرول رکھتے ہیں، تو وہ ریاست یا وفاقی لائسنسنگ کے قواعد سے مستثنیٰ ہیں۔ یہ بھی واضح ہے کہ یہ قانون دانشورانہ املاک کے قوانین سے بالاتر نہیں اور ریاستوں کو ہم آہنگ ریگولیٹری قواعد لاگو کرنے سے روک نہیں رہا۔ ہاؤس نے ابھی تک بلیو پرنٹ یا مباحثہ کے لیے ووٹ کی تاریخ مقرر نہیں کی ہے، تاہم، اس کی دوبارہ پیش کش ہاؤس میں اس تناظر میں نئی لچک اور مقبولیت کا اظہار کرتی ہے کہ کس طرح نگہداشت (کاسٹیڈی) اور غیر نگہداشت (نون-کاسٹیڈی) شرکاء کو ڈیجیٹل اثاثہ جات کے نظام میں ممتاز کیا جائے۔

اوپن اے آئی کا ہارڈ ویئر میں اسٹریٹجک اقدام، جسے …
OpenAI نے روزمرہ زندگی میں AI کے انضمام کو انقلابی بنانے کے لیے ایک اہم حکمت عملی شروع کی ہے، جس میں ہارڈ ویئر کی ترقی شامل ہے۔ جونی ایو، سابق ایپل ڈیزائن چیف، کے ساتھ شراکت داری کرتے ہوئے، OpenAI کا ہدف ایسی اشیاء تیار کرنا ہے جو خاص طور پر AI سافٹ ویئر کی صلاحیتوں کو بڑھانے کے لیے بنائی گئی ہوں، جن میں ChatGPT جیسی نظام شامل ہیں۔ یہ تعاون ایک اہم تبدیلی کا نشان ہے، جو روایتی سافٹ ویئر پلیٹ فارمز سے آگے بڑھ کر جسمانی مصنوعات کی طرف منتقل ہو رہا ہے، جن کے اندر AI کو مرکزی مقام دیا گیا ہے۔ سی ای او سیم آلٹمن کا تصور ہے کہ موجودہ انٹریکشن ماڈلز، جن میں کی بورڈ، اسکرینز اور روایتی ایپلیکیشنز شامل ہیں، کو چھوڑ کر جدید اور زیادہ کارآمد نظام ہو، کیونکہ AI کی وسیع صلاحیتوں اور جدید صارفین کی توقعات کے پیش نظر یہ پرانا ہو چکا ہے۔ منصوبہ بند ہارڈ ویئر کو ایک "باہر کا دماغ" تصور کیا جا رہا ہے، جو صارفین کو متعدد کاموں میں آسانی اور موثریت سے مدد فراہم کرے گا، جو آج کے اسمارٹ فونز یا پی سیز سے زیادہ ذہین اور فطری انداز میں کام کرے گا۔ AI کو گہرائی سے شامل کرنے سے یہ آلات حقیقی وقت میں مدد، سیاق و سباق کا شعور اور بہتر فیصلہ سازی کی سہولت فراہم کریں گے، جو پیداواریت اور صارف کے تجربے کو بدل کر رکھ دیں گے۔ اس تصور کو تیز کرنے کے لیے، OpenAI تقریباً 5 ارب ڈالر کی سرمایہ کاری کے ذریعے Ive کی ڈیزائن کمپنی، LoveFrom، حاصل کرے گا۔ یہ حصول Ive کی منفرد ڈیزائن مہارتوں کو OpenAI میں لے آئے گا اور اسے آئندہ AI مرکز مصنوعات کے مجموعی ڈیزائن اور صارف کے تجربہ کا ذمہ دار بنایا جائے گا۔ اگرچہ مصنوعات کی تفصیلات راز ہیں، لیکن آلٹمن-ایو شراکت داری سے امید ہے کہ یہ جدید ہارڈ ویئر تیار کرے گی، جو ٹیکنالوجی کے منظرنامے میں گہرا اثر ڈال سکتی ہے اور ممکنہ طور پر OpenAI کا سب سے منافع بخش اور تبدیلی لانے والا منصوبہ بن سکتا ہے۔ ایک اہم مقصد یہ ہے کہ لوگوں کے پاس موجود مختلف ڈیجیٹل ٹولز—ایپلیکیشنز، آلات اور پلیٹ فارمز—کو ایک ہی آلات میں یکجا کیا جائے، تاکہ صارف کا تجربہ بہتر ہو اور OpenAI کی ٹیکنالوجی کے گرد ایک مستقل ماحولیاتی نظام قائم ہو جائے، جو مارکیٹ میں اس کا غالب پلیٹ فارم بن جائے۔ یہ قدم اس وقت اٹھایا جا رہا ہے جب گوگل، ایپل، اور ایمیزون جیسے بڑے ادارے اپنی مصنوعات میں جینیریٹیو AI کو آسانی سے شامل کرنے میں دشواری کا سامنا کر رہے ہیں، اور ان کی مصنوعات کو بے ترتیبی اور ناقص فطری سمجھ میں کمی کی شکایات کا سامنا ہے، جو ایک لگژری اور حقیقی طور پر بے عیب AI ہارڈ ویئر تجربہ کے لیے موقع فراہم کرتا ہے۔ OpenAI طویل عرصے سے ایسے چیلنجز سے نمٹ رہا ہے جنہوں نے AI سے چلنے والے آلات کو صارفین کے درمیان مقبول بنانے میں رکاوٹ ڈالی ہے، جن میں ڈیزائن، استعمال میں سہولت اور عملی استعمال شامل ہیں۔ آلٹمن اور ایو کے مشترکہ وژن اور قیادت سے توقعات بڑھ گئی ہیں کہ یہ نئی AI ہارڈ ویئر کی لہر iPhone کے تقریبا بیس سال پہلے اس کے اسمارٹ فونز پر اثرات کے مترادف انقلاب لا سکتی ہے۔ خلاصہ یہ ہے کہ، OpenAI کی ہارڈ ویئر میں اس حکمت عملی کی کوشش، جس کی قیادت ایو کی تخلیقی مہارت سے ہو رہی ہے، مصنوعی ذہانت میں ایک اہم ترقی کی علامت ہے۔ ایسے آلات فراہم کرنے کے مقصد کے ساتھ جو انسان کی شعور کے قدرتی وسیلے ہوں، OpenAI انسان اور مشین کے تعامل کو نئے سرے سے متعین کرنا چاہتا ہے۔ یہ اقدام ایک بے مثال کمپیوٹنگ تجربہ فراہم کرنے کا وعدہ کرتا ہے، جو آنے والے سالوں میں ٹیکنالوجی اور روزمرہ زندگی کو بدل سکتا ہے۔