Прогрес штучного інтелекту та виклики у досягненні людського рівня ігрового інтелекту
Brief news summary
Штучний інтелект (ШІ) досяг значних успіхів у галузі ігор, зокрема завдяки перемозі IBM Deep Blue над Гаррі Каспаровим та майстерності Google AlphaGo у грі Ґо. Навчання з підкріпленням сприяло успіхам ШІ у аркадних іграх та складних стратегічних титулах, таких як Dota 2 та Starcraft II. Однак залишаються виклики щодо здатності ШІ швидко адаптуватися до відкритих, менш структурованих ігор, де переважають людська інтуїція та досвід. Люди відмінно справляються з усвідомленням абстрактних цілей і нових механік, у чому ШІ досі має труднощі. Професор Нью-Йоркського університету Джуліан Тогелій підкреслює, що загальне гравецьке вміння—успішно конкурувати у різних іграх без великих попередніх тренувань— є головним викликом. Винаходи, такі як SIMA 2 компанії Google DeepMind, що поєднує навчання з підкріпленням із сучасними мовними моделями, обіцяють покращити розуміння ШІ різноманітних ігрових середовищ. Досягнення рівня людського інтелекту в іграх вимагатиме проривів у сфері креативності, планування та абстракції, що відкриє нову еру у галузі ігрового розуму.Підписуйтеся на щоденну розсилку Popular Science, щоб отримувати новини про прориви, відкриття та поради для самостійного виготовлення, шостий день тижня. Прогрес моделей штучного інтелекту (ШІ) часто ілюструють їхніми досягненнями у грі. У 1997 році IBM’s Deep Blue здивувала світ, перемігши в шахах гросмейстера Гаррі Каспарова, а майже через два десятиліття Google’s AlphaGo перемогла людського чемпіона в Го — те, що вважалося неможливим. Відтоді ШІ просунувся від настільних ігор до відеоігор, використовуючи підкріплювальне навчання, техніку також важливу для тренування чат-ботів як ChatGPT, що дозволяє машинам опанувати ігри на зразок Atari та складні стратегічні тайтли, такі як Dota 2 і Starcraft II. Однак ШІ ще досі має труднощі із швидким навчанням різноманітних більш відкритих ігор — сфери, в яких переважають люди. Коли стикаються з незнайомою грою, людські гравці швидко засвоюють її основи, тоді як моделі ШІ часто зазнають невдачі, що підкреслює в останньому дослідженні професора комп’ютерних наук Нью-Йоркського університету Джуліана Тогеліусу та його колег. Ця різниця підкреслює фундаментальну відмінність між людським інтелектом і потенціалом сучасного ШІ, наголошуючи, що шляху до досягнення чи перевершення людського рівня інтелекту ще дуже багато. Ігри давно є ідеальним полігоном для тестування ШІ завдяки їхнім передбачуваним правилам, визначеним цілям і механікам, що добре поєднується з підкріплювальним навчанням: моделі грають у симуляціях, щоб покращувати свої навички через проби і помилки. Цей підхід дозволив DeepMind у 2015 році осягнути майстерність у Atari та впливає на сучасні великі мовні моделі, навчені на величезних обсягах інтернет-даних. Проте ці моделі добре справляються лише з конкретними завданнями, що мають чіткі межі; будь-які незначні зміни в дизайні гри можуть порушити їхню роботу. Хоча ШІ може досягти надлюдських навичок у окремій грі, він все ще має труднощі з імпровізацією. Ця обмеженість стає більш очевидною з розвитком сучасних ігор, що набирають відкритості та абстрактності. На відміну від шахів, ігри на кшталт відкритого світу «Red Dead Redemption» мають складні цілі, пов’язані з втіленням у персонажа з моральними конфліктами, а не простими задачами.
Люди інтуїтивно розуміють такі нюанси, машини — ні. Навіть у простіших пісочницях, таких як «Minecraft», ШІ може виконувати базові дії, наприклад, стрибки, без розуміння їхнього контексту. Автори підкреслюють, що добре продумані ігри тісно пов’язані з людською інтуїцією, здоровим глуздом і життєвим досвідом, які люди накопичують протягом років реального життя. Наприклад, немовлята навчаються розпізнавати предмети вже у 18–24 місяці, просто через досвід, тоді як машини потребують набагато більше керованого навчання. Цей досвід дає людині перевагу у швидкому опановуванні нових ігор. Дослідження показують, що curiosity-driven підкріплювальне навчання для ШІ може знадобитися близько чотирьох мільйонів натискань клавіш — приблизно 37 годин безперервної гри — тоді як середні людські гравці часто опановують нову механіку менше ніж за 10 годин. Попри це, ШІ рухається вперед у загальному геймплеї. У 2023 році Google DeepMind представила SIMA 2 — модель, яка поєднує існуючий ШІ з можливостями логічного мислення від її великої мовної моделі Gemini, що дозволяє краще розуміти і взаємодіяти з 3D-іграмами — навіть тими, що її спеціально не навчали. Але Тогеліус і його колеги застерігають, що ШІ ще має багато роботи, щоб наздогнати людську здатність до адаптації. Вони пропонують еталон, за яким модель могла б грати та вигравати у 100 найкращих ігор на Steam або у додатку iOS без попереднього тренування на якихось з них — і при цьому зробити це приблизно за той самий час, що і людина. Це залишається складним завданням, яке наразі і сучасні методи ШІ не здатні розв’язати або навіть активно намагаються. Досягти такого рівня узагальнення означало б, що ШІ продемонструє справжню креативність, здатність до передбачення і абстрактного мислення — якості, що є унікальними для людського інтелекту. Зрештою, справжнім випробуванням для ШІ у досягненні “рівня людського інтелекту” може бути не створення фейків або написання поверхневих романів, а здатність опановувати широкий спектр різноманітних ігор з швидкістю та розумінням, подібним до людського.
Watch video about
Прогрес штучного інтелекту та виклики у досягненні людського рівня ігрового інтелекту
Try our premium solution and start getting clients — at no cost to you