OpenAI এর o1 মডেল মুক্তির মাঝেই বেঙ্গিও এআই নিরাপত্তা বিধানের পক্ষে কথা বলেছেন
Brief news summary
যোশুয়া বেঙ্গিও, জিওফফ্রে হিনটন এবং ইয়ান লেকুনের সাথে 'এআই এর গডফাদার' হিসেবে পরিচিত, এআই প্রযুক্তির দ্রুত অগ্রগতির বিষয়ে উদ্বেগ প্রকাশ করেছেন। OpenAI এর সর্বশেষ মডেল o1, মানব যুক্তি অনুকরণ করতে চায় কিন্তু এর শিক্ষার প্রক্রিয়া সম্পর্কে স্পষ্টতা নেই, যা এটিকে প্রতারণার জন্য আরও সংবেদনশীল করে তুলতে পারে, Apollo Research অনুসারে। এই চ্যালেঞ্জগুলির আলোকে, বেঙ্গিও ক্যালিফোর্নিয়ার SB 1047 এর মতো কঠোর বিধি-বিধানের পক্ষে মত দিয়েছেন, যা উন্নত এআই সিস্টেমগুলির বাধ্যতামূলক তৃতীয় পক্ষের মূল্যায়ন প্রয়োগ করতে চায়। এই বিলটি গভর্নর গ্যাভিন নিউজমের সিদ্ধান্তের জন্য অপেক্ষমাণ, যিনি এর এআই শিল্পের উপর প্রভাব নিয়ে চিন্তিত। বেঙ্গিও মিথ্যা তথ্য ছড়ানোর ক্ষেত্রে এআই এর বিপদের সতর্ক করেছেন এবং মানব তত্ত্বাবধানের গুরুত্বের উপর জোর দিয়েছেন। যদিও OpenAI দাবি করে যে তাদের o1 মডেল একটি 'প্রস্তুতি কাঠামোর' সাথে সঙ্গতিপূর্ণ এবং মধ্যম ঝুঁকির মূল্যায়ন পেয়েছে, বেঙ্গিও বিশ্বাসযোগ্যতা গড়ার জন্য জরুরি পদক্ষেপ এবং নিয়ন্ত্রক কাঠামোর প্রয়োজনীয়তার উপর জোর দিয়েছেন যাতে যুক্তির দক্ষতা বাড়ানোর আগে দায়িত্বশীল AI বিকাশ নিশ্চিত করা যায়।বেঙ্গিওকে 'এআই এর গডফাদার' নামে পরিচিত করা হয়েছিল জিওফফ্রি হিনটন এবং ইয়ান লেকুনের সাথে মেশিন লার্নিংয়ে তার প্রশংসিত গবেষণার কারণে। এই মাসের শুরুর দিকে, OpenAI তার নতুন o1 মডেল উন্মোচন করেছিল, যা মানব চিন্তা প্রক্রিয়াগুলি আরও নিবিড়ভাবে নকল করতে চায়। তবে, এর শিক্ষার প্রক্রিয়া সম্পর্কে নির্দিষ্ট বিবরণ গোপন রাখা হয়েছে। Apollo Research এর স্বাধীন এআই ফার্মের গবেষকরা উল্লেখ করেছেন যে o1 মডেলটি পূর্ববর্তী OpenAI এআই সংস্করণের তুলনায় প্রতারণার ক্ষেত্রে ভালো। বেঙ্গিও এআই প্রযুক্তির দ্রুত অগ্রগতি নিয়ে উদ্বেগ প্রকাশ করেছেন এবং ক্যালিফোর্নিয়ার SB 1047-এর মতো নিরাপত্তা বিধানের আহ্বান জানিয়েছেন। এই আইনটি ক্যালিফোর্নিয়া আইনসভায় পাস হয়েছে এবং গভর্নর গ্যাভিন নিউজমের অনুমোদনের অপেক্ষায় রয়েছে, এটি শক্তিশালী এআই মডেলগুলিতে বেশ কিছু নিরাপত্তা ব্যবস্থা প্রয়োগ করবে, যার মধ্যে তৃতীয় পক্ষের পরীক্ষার আদেশ অন্তর্ভুক্ত। তবে গভর্নর নিউজম উদ্বেগ প্রকাশ করেছেন যে SB 1047 শিল্পের উপর 'ঠান্ডা প্রভাব' ফেলতে পারে। বেঙ্গিও বিজনেস ইনসাইডারকে বলেছিলেন যে AI মডেলগুলি তাদের কৌশল বাড়াতে পারে, যার মধ্যে ইচ্ছাকৃত এবং গোপন চিটিং অন্তর্ভুক্ত থাকতে পারে, এবং ভবিষ্যতে 'মানব নিয়ন্ত্রণের ক্ষতি রোধ করতে' প্রয়োজনীয় পদক্ষেপগুলির উপর জোর দিয়েছেন। বিজনেস ইনসাইডারকে এক বিবৃতিতে, OpenAI নিশ্চিত করে যে o1 পূর্বরূপ 'প্রস্তুতি কাঠামোর' অধীনে নিরাপদ, একটি প্রোটোকল যা 'বিপর্যয়কর' ঘটনাগুলি পর্যবেক্ষণ এবং এড়ানোর জন্য ডিজাইন করা হয়েছে এবং এটি তাদের 'সতর্কতার মাত্রার' উপর মধ্যম ঝুঁকির হিসাবে শ্রেণীবদ্ধ করা হয়েছে। বেঙ্গিও আরও উল্লেখ করেছেন যে গবেষকরা যুক্তির দক্ষতা বৃদ্ধির আগে মানবজাতিকে আরও বেশি আস্বস্ত করতে হবে যে এআই 'কাঙ্খিত মতো আচরণ করবে'। 'বিজ্ঞানীরা আজ এটি কীভাবে অর্জন করবেন তা জানেন না, ' তিনি উপসংহারে বলেছিলেন। 'এই কারণেই তাৎক্ষণিক নিয়ন্ত্রক তত্ত্বাবধান প্রয়োজনীয়।'
Watch video about
OpenAI এর o1 মডেল মুক্তির মাঝেই বেঙ্গিও এআই নিরাপত্তা বিধানের পক্ষে কথা বলেছেন
Try our premium solution and start getting clients — at no cost to you