Напредок и предизвици на вештачката интелигенција во усовршувањето на човечко ниво на игриќна интелигенција
Brief news summary
Искусната интелигенција (AI) постигна значајни достигнувања во областа на игрите, што се примерува со победата на IBM-овата Deep Blue над Гари Каспаров и совладувањето на Go од страна на Google-овиот AlphaGo. Обучувањето со наградување го поттикна успехот на AI во Atari игрите и во сложени стратегии како Dota 2 и Starcraft II. Сепак, остануваат предизвици во способноста на AI брзо да се прилагоди на игри со отворен крај, помалку структурирани, каде предност има човечката интуиција и искуство. Луѓето одлично се справуваат со апстрактните цели и новите механики, области во кои AI сè уште има потешкотии. Професорот од NYU, Јулијан Тогелиус, нагласува дека општо играње видео игри — каде што AI се одличува во различни игри без голема претходна обука — претставува голем предизвик. Иновативни решенија како SIMA 2 од Google DeepMind, кое ги комбинира технологиите за наградување со напредните јазични модели, даваат надеж дека ќе ја подобрат способноста на AI да разбира различни опкружувања во игрите. Постигнувањето на AI на човечки ниво во игрите ќе бара нови пробиви во креативноста, планирањето и апстракцијата, означувајќи нова ера во интелигенцијата за игри.Претплатете се на дневниот билтен на Popular Science за пробиви, откритија и совети за самостојно учење, доставувани шест дена неделно. Напредокот на модели на вештачка интелигенција (ВИ) често се илустрира со нивната способност во играње игри. IBM-овата Deep Blue ги изненади светот во 1997 година со победа над мајсторот по шах Гарри Каспаров, а речиси две децении подоцна, AlphaGo на Google ја победи светската шампионка во Го—што се сметаше за невозможно. Од тогаш, ВИ се разви од играњето на табла до видео игри, користејќи reinforce learning, техника која е клучна за тренирање на чатботови како ChatGPT, овозможувајќи машините да совладаат Atari игри и сложени стратегии како Dota 2 и Starcraft II. Меѓутоа, ВИ сè уште се мачи со брзо учење на различни, поотворени игри—поле каде што човечките вештини исклучително се изразени. Кога се соочат со непозната игра, луѓето брзо ги разбираат основите, додека моделите на ВИ често не успеваат, како што нагласува неодамнешна студија на професорот по компјутерски науки на NYU, Јулијан Тогелиус, и неговите колеги. Овој јаз е знак за длабока разлика помеѓу човечкиот интелект и сегашните способности на ВИ, потсетувајќи дека патот кон достигнување или надминување на човечката интелигенција е долг. Игриците долго време се сметаа за идеално поле за тестирање на ВИ поради нивните предвидливи правила, дефинирани цели и механики, што одговараат на reinforce learning: моделите повторно играат игри во симулации за да се подобрат преку проба и грешка. Овој пристап им овозможи на DeepMind, во 2015 година, да совлада Atari игри и влијае врз големите јазични модели денес, тренирани на огромни количини интернет податоци. Сепак, овие модели се одлични само за одредени задачи со јасни ограничувања; малите измени во дизајнот на играта можат да ја нарушат нивната работа. Иако ВИ може да постигне супериорна вештина во одредена игра, му е тешко со импровизација. Оваа пречка е особено очигледна со современите игри кои стануваат сè повозбудливо отворени и апстрактни. За разлика од шахот, игри како “Red Dead Redemption” со отворен свет имаат сложени цели поврзани со вкрстени морални избори, наместо едноставни задачи.
Човекот интуитивно ги разбира овие нијанси; машините не. Дури и во поедноставни sandbox игри како “Minecraft, ” ВИ може да извршува основни дејствия како скокање, но без разбирање на нивниот контекст. Авторите посочуваат дека добро дизајнираните игри тесно се согласуваат со човечката интуиција, здравиот разум и искуството—кои луѓето ги собираат преку години со реален контакт со светот. На пример, бебињата научуваат да препознаваат објекти на возраст од околу 18 до 24 месеци преку искуство, додека машините потребуваат многу поголем водич за учење. Овој искуствен предност им овозможува на луѓето побрзо да учат нови игри. Истражувањата покажуваат дека ВИ базирана на curiosity-driven reinforce learning може да биде потребни околу четири милиони кликанија—или околу 37 непрекинати часа—за да ја заврши играта, додека просечниот човек играч обично разбира нови механики за под 10 часа. И покрај тоа, ВИ напредува во општото играње. Во 2023 година, Google DeepMind претстави SIMA 2, модел кој комбинира постоечка ВИ со способност за раз logic и размислување од големи јазични модели како Gemini, овозможувајќи подобро разбирање и интеракција со 3D игри—дури и оние што не се конкретно тренирани. Но, Тогелиус и колегите предупредуваат дека ВИ сè уште има значителен пат пред себе пред да се изедначи со човечната адаптивност. Тие предлагаат стандард каде модел би можел да игра и победи на првите 100 игри на Steam или iOS App Store без претходно тренирање на некоја од нив—и тоа во рок од времето што би му требало на човек. Овој предизвик останува огромен проблем што сегашните методи на ВИ ни приближно не ја решаваат или сериозно не се обидуваат да го решат. Достигнувањето на овој ниво на општа применливост би барало од ВИ да покаже вистинска креативност, предвидовно планирање и апстрактно размислување—како што се карактеристики кои својствено се на човечкиот интелект. На крај, вистинскиот тест за ВИ во достигнување на “човечкиот ниво на интелигенција” можеби не е во создавање на длабфејкови или пишување површни романи, туку во неговата способност да совлада широк спектар на различни игри со брзина на учење и разбирање слична на човечката.
Watch video about
Напредок и предизвици на вештачката интелигенција во усовршувањето на човечко ниво на игриќна интелигенција
Try our premium solution and start getting clients — at no cost to you