Жасанды интеллектінің даму барысы мен адам деңгейіндегі ойын интеллектін меңгерудегі қиындықтар
Brief news summary
Жасанды интеллект (ЖИ) ойындарда айтарлықтай жетістіктерге жетті, мысалы, IBM-ның Deep Blue бағдарламасының Гари Каспаровты жеңуі және Google-дың AlphaGo бағдарламасының Go-игін меңгеруі. Қайталанатын оқу әдісі Atari ойындарында және Dota 2, Starcraft II сияқты күрделі стратегиялы ойындарда ЖИ-ның табысқа жетуін қозғады. Дегенмен, адам интуициясы мен тәжірибесі басым болып келетін ашық, құрылымы аз ойындарға тез бейімделу қабілетінде мәселелер бар. Адамдар абстрактілі мақсаттарды түсінуде және жаңа механикаларда ерекше, ал ЖИ әлі де қиындықтармен бетпе-бет келуде. NYU профессоры Жюлиан Тогелиус жалпы видео ойындар ойнауда — кең ауқымды әртүрлі ойындарда жоғары деңгейге жету үшін — үлкен шақ екенін атап көрсетеді. Google DeepMind-тың SIMA 2 сияқты инновациялар, қайталанатын оқуды және заманауи тіл моделдерін біріктіріп, ЖИ-ның әртүрлі ойын орталарын түсінуін жақсартуда үміт орнатады. Ойындарда адам деңгейіндегі ЖИ-ны жүзеге асыру үшін шығармашылық, жоспарлау және абстракциядағы жетістіктер қажет болады, бұл ойын интеллектілігінің жаңа дәуірінің басталуы болмақ.Танымал Ғылым күнделікті жаңалықтар бюллетеньіне жазылыңыз, онда апта сайын алты рет жаңалықтар, жаңалықтар мен DIY кеңестері келеді. Жасанды интеллект (ЖИ) модельдерінің даму көрсеткіштері көбінесе олардың ойын дағдыларымен өрнектеледі. IBM-нің Deep Blue 1997 жылы шахматтан әлем чемпионы Гарри Каспаровты жеңіп, әлемді таң қалдырды, ал екі ғасырға жуық уақыт өткен соң, Google-дың AlphaGo адам чемпионнан Го ойынында асып түсті — бір кездері мүмкін емес деп саналған. Сол уақыттан бері ЖИ кеңейіп, үстел ойындарынан бастап видеоиграмдарға дейін дамыды, reinforcement learning әдісін қолдана отырып, ол чатботтарды, мысалы ChatGPT-ты оқытуда маңызды рөл атқарады. Бұл машиналарға Atari ойындарын меңгеруге және Dota 2, Starcraft II сияқты күрделі стратегия ойындарын ойнауға мүмкіндік береді. Алайда, ЖИ әлі де көптеген ашық ойындарды тез үйренуде қиындықтарға кездеседі — мұнда адамдар жақсы жетістікке жетеді. Ең болмаса белгісіз ойынға тап болса, адам ойыншылар оның негізгі ережелерін тез түсінеді, ал ЖИ моделдері жиі сәтсіздікке ұшырайды, бұл туралы жақында NYU-дағы компьютер ғылымы профессоры Джулиан Тогелиус және оның әріптестері мақаласында айтылды. Бұл айырмашылық адам интеллекті мен ЖИ-дің қазіргі мүмкіндіктерінің арасындағы fundamental айырмашылықты көрсетті әрі ЖИ-дің шын мәнінде адам деңгейіне жету немесе асу үшін әлі көп жол қажет екенін айқындады. Ойындар ұзақ уақыт бойы ЖИ-дің сыни сынақ алаңдары болды, себебі олар алдын ала анықталған ережелері, мақсаттары және механикасы арқылы reinforcement learning әдісіне өте қолайлы. Бұл тәсіл— моделдер қайталап ойындар ойнап, тәжірибе мен қателесу арқылы жетілдіріліп отырады. Бұл әдіс DeepMind-тің 2015 жылы Atari ойындарын меңгеруіне мүмкіндік берді және бүгінгі ірі тілдік модельдердің интернеттегі үлкен деректер жиынтығында оқытылуында да әсері бар. Алайда, мұндай модельдер тек нақты шекаралармен шектелген тапсырмаларда жақсы жұмыс істейді; ойын дизайнына жеңіл өзгерістер қауіп-қатер туғызады. ЖИ белгілі бір ойында супер адам деңгейіне жетуі мүмкін, бірақ ол импровизациямен қиындықтарға кезігеді. Бұл шектеу әсіресе қазіргі заманғы ойындар кеңірек және абстрактілі бола бастағанда айқын көрінеді.
Шахматтан айырмашылығы, ашық әлемдік ойындар, мысалы, “Red Dead Redemption”, көп деңгейлі мақсаттар мен моральды қайшылықтармен байланысты болғандықтан, қарапайым көзделген мақсаттарға негізделмеген. Адамдар мұндай айырмашылықтарды интуитивті түрде түсінеді; машиналар әлі де түсінбейді. Тіпті “Minecraft” сияқты қарапайым sandbox ойындарында, ЖИ негізгі әрекеттерді — мысалы, секіруді — орындай алады, бірақ олардың мәнін түсінбейді. Авторлар атап өтеді, жақсы жасақталған ойындар адам интуициясына, ақыл-ой мен өмірлік тәжірибеге өте жақын келеді. Мысалы, нәрестелер объектдерді тануды шамамен 18-24 айлығында үйренеді, ол тәжірибемен күннен-күнге жинақталады, ал машиналарға мұндай нәтижеге жету үшін көп бағытталған енгізу қажет. Осы тәжірибелік артықшылық адамға жаңа ойындарды жылдамырақ үйренуге мүмкіндік береді. Зерттеулер көрсеткендей, curiosity-driven reinforcement learning AI шамамен төрт миллион түймелік соққы немесе 37 үздіксіз сағат қажет етсе, жаңа механиканы түсіну үшін, орташа адам ойыншылар әдетте 10 сағаттан кем уақытта жаңа нәрселерді меңгереді. Дегенмен, ЖИ жалпы ойын ойнауда дамып келеді. 2023 жылы Google DeepMind SIMA 2 моделін таныстырды — ол бұрынғы ЖИ-ге Reasoning қабілеті бар Gemini ірі тілдік моделін біріктіріп, 3D ойындармен жақсырақ өзара әрекеттесуге мүмкіндік береді, тіпті ол арнайы оқытылмайтын ойындарда да қолдануға болады. Алайда, Тогелиус және оның әріптестері қазіргі ЖИ-дің адам сияқты икемділігін жетілдіру үшін әлі де көп жұмыс істеу керек деп ескертеді. Олар модельдің Steam немесе iOS App Store-дің ең үздік 100 ойынын ойнап, жеңуін સાયысу арқылы алуға болатын критерий ұсынады — ол ойындарда алдын ала ешқандай жаттықтырусыз, адамға ұқсас уақытта жету. Бұл әлі де күрделі міндет, қазіргі ЖИ әдістері оған жақындаған жоқ және оған шын мәнінде түбегейлі жақындау үшін нақты жұмыс керек. Бұл деңгейдегі жалпылыққа жету үшін ЖИ-ге шынайы шығармашылық, алда ойлау және абстрактілік ойлау қабілеттері қажет— олардың барлығы адам интеллектіне тән қасиеттер. Ақырында, ЖИ-нің “адам деңгейіне” жетуі тек терең фотосуреттер жасап немесе жағымсыз романдар жазудан гөрі, түрлі ойындарды меңгеру мен адамға ұқсас үйрену жылдамдығы мен түсінуі арқылы көрінеді.
Watch video about
Жасанды интеллектінің даму барысы мен адам деңгейіндегі ойын интеллектін меңгерудегі қиындықтар
Try our premium solution and start getting clients — at no cost to you