Mākslīgā intelekta progress un izaicinājumi cilvēka līmeņa spēļu inteliģences apgūšanā
Brief news summary
Mākslīgais intelekts (MI) ir sasniedzis ievērojamus sasniegumus spēļu jomā, piemēram, IBM Deep Blue uzvarēja Gariju Kasparovu un Google AlphaGo pārspēja Go spēli. Pastiprināšanas mācīšanās ir veicinājusi MI panākumus Atari spēlēs un sarežģītos stratēģijas nosaukumos kā Dota 2 un Starcraft II. Tomēr joprojām ir izaicinājumi MI spējā ātri pielāgoties atvērtas struktūras spēlēm, kurās dominē cilvēka intuīcija un pieredze. Cilvēki ir izcili abstraktu mērķu un jaunu mehānismu izpratnē, jomās, kurās MI vēl joprojām saskaras ar grūtībām. Ņujorkas universitātes profesors Julians Togeless uzsver, ka vispārējā videospēļu spēlēšana—spēja pārspēt dažādas spēles bez plašas iepriekšējas apmācības—is galvenais izaicinājums. Inovācijas, kā Google DeepMind SIMA 2, kas apvieno pastiprināšanas mācīšanos ar sarežģītiem valodu modeļiem, sniedz cerības uz MI izpratnes paplašināšanu dažādās spēļu vidēs. Sasniegt cilvēka līmeņa MI spēlēs prasīs atklājumus radošumā, plānošanā un abstrakcijā, iezīmējot jaunu ēru spēļu inteliģencē.Pierakstieties uz Populārzinātne ikdienas jaunumiem, kur katru dienu seši dienas nedēļā tiek publicēti jaunumi par atklājumiem, izgudrojumiem un DIY padomiem. Mākslīgā intelekta (MI) modeļu progress bieži tiek ilustrēts ar to spēļu spējas līmeni. IBM Deep Blue pārsteidza pasauli 1997. gadā, uzveicot šaha lielmeistaru Gariju Kasparovu, un gandrīz divus gadusdesmitus vēlāk Google AlphaGo pārspēja cilvēka čempionu Go spēlē—kuru kā neiespējamu uzskatīja. Kopš tā laika MI ir attīstījies no galda spēlēm uz videospēlēm, izmantojot pastiprināšanas mācīšanos, tehnoloģiju, kas ir būtiska arī tādā čatbota kā ChatGPT apmācībā, ļaujot mašīnām apgūt Atari spēles un sarežģītas stratēģijas titulus, tādus kā Dota 2 un Starcraft II. Tomēr MI joprojām saskaras ar grūtībām ātri apgūt dažādas atvērtākas spēles—līdzekli, kurā cilvēki ir pārāki. Kad sastopas ar nezināmu spēli, cilvēku spēlētāji ātri apgūst tās pamatus, kamēr MI modeļi bieži neizdodas, par to liecina nesenā neaizsargāto datorzinātņu profesora Džuljana Togeliusa un kolēģu publikācija. Šī plaisa izceļ būtisku atšķirību starp cilvēka inteliģenci un pašreizējām MI spējām, norādot, ka MI ir gara ceļa ejama, pirms tā sasniegs vai pārspēs īstu cilvēka līmeņa intelektu. Spēles jau ilgu laiku ir bijušas ideālas pārbaudes platformas MI attīstībā, jo tām ir prognozējamas noteiktas noteikumi, skaidri mērķi un mehānikas, kas labi saskan ar pastiprināšanas mācīšanos: modeļi atkārtoti spēlē spēles simulācijās, lai pilnveidotos, izmantojot mēģinājumu un kļūdu metodi. Šī pieeja ļāva DeepMind 2015. gadā iemācīties Atari spēles un arvien vairāk ietekmē mūsdienu lielās valodu modeļus, kas tiek trenēti uz milzīga interneta datu apjoma. Tomēr šie modeļi ir izcili tikai noteiktiem uzdevumiem ar skaidriem ierobežojumiem; nelielas izmaiņas spēles dizainā var traucēt MI darbību. Lai gan MI var sasniegt pār cilvēka spēju konkrētā spēlē, tas joprojām saskaras ar improvizācijas trūkumu. Šis ierobežojums kļūst acīmredzamāks, jo mūsdienu spēles kļūst arvien atvērtākas un abstraktākas.
Atšķirībā no šaha, spēles piemēram, “Red Dead Redemption” ar atvērtā pasaules dizainu ietver sarežģītus mērķus, kas saistīti ar morāli pretrunīgu rakstura atveidošanu, nevis vienkāršiem mērķiem. Cilvēki intuitīvi izprot šādas nianses; mašīnas nē. Pat vienkāršākās smilškastes spēlēs, piemēram, “Minecraft, ” MI var veikt pamatdarbības, piemēram, lekt, nesaprotot to kontekstu. Autori uzsver, ka labi veidotas spēles cieši saskan ar cilvēka intuīciju, veselo saprātu un dzīves pieredzi—ko cilvēki uzkrāj gadu gaitā reālajā pasaulē. Piemēram, zīdaiņi sāk atpazīt objektus aptuveni 18 līdz 24 mēnešus vecumā, balstoties uz pieredzi, kamēr mašīnām ir nepieciešami daudz ilgāki un rūpīgāki norādījumi. Šī pieredzes priekšrocība ļauj cilvēkiem ātrāk apgūt jaunas spēles. Pētījumi rāda, ka ziņkārības vadīta pastiprināšanas mācīšanās MI varētu būt nepieciešami apmēram četri miljoni taustiņu uzspiedienu—aptuveni 37 nepārtraukto stundu—lai pabeigtu spēli, kamēr vidēja līmeņa cilvēku spēlētāji bieži apgūst jaunas mehānikas apmaz 10 stundās. Tomēr MI attīstās vispārējā spēlēšanā. 2023. gadā Google DeepMind iepazīstināja ar SIMA 2, modeli, kas apvieno esošo MI ar domāšanas spējas Gemini lielvalodu modeļa, ļaujot labāk izprast un reaģēt uz 3D spēlēm—pat uz tām, kuras tas nav īpaši mācījies. Tomēr Togeliuss un kolēģi brīdina, ka MI joprojām ir tāls ceļš ejams, līdz tas spēju pielāgoties cilvēka līmenim. Viņi proponē novērtēšanas mēru, kur modelis varētu spēlēt un uzvarēt 100 labākās spēles Steam vai iOS App Store bez iepriekšējas apmācības tajās, un to dara aptuveni tajā pašā laikā kā cilvēks. Šis ir iespaidīgs izaicinājums, ar ko mūsdienu MI metodes vēl nav tuvākajā laikā tikušas galā vai arī strikti neatkarīgi mēģina. Šāda vispārējās spējas sasniegšana prasītu, lai MI spētu demonstrēt patiesu radošumu, rūpīgu plānošanu un abstraktā domāšanu—īpašības, kas ir unikāli cilvēka intelektu. Galu galā, patiesais tests, lai MI sasniegtu “cilvēka līmeņa intelektu, ” varētu nebūt miņš vai virspusēja romānu rakstīšana, bet gan tā spēja apgūt plašu dažādu spēļu klāstu ar cilvēka līdzīgu apguves ātrumu un izpratni.
Watch video about
Mākslīgā intelekta progress un izaicinājumi cilvēka līmeņa spēļu inteliģences apgūšanā
Try our premium solution and start getting clients — at no cost to you