Postęp i wyzwania sztucznej inteligencji w opanowaniu ludzkiego poziomu inteligencji w grach
Brief news summary
Sztuczna inteligencja (SI) osiągnęła znaczące kamienie milowe w grach, na przykład IBM Deep Blue pokonując Garrego Kasparowa oraz AlphaGo od Google, opanowując grę Go. Uczenie przez wzmacnianie napędziło sukces SI w grach na Atari oraz w złożonych tytułach strategicznych, takich jak Dota 2 i Starcraft II. Jednak wciąż istnieją wyzwania związane z możliwością SI do szybkiej adaptacji w otwartych, mniej ustrukturyzowanych grach, gdzie dominują intuicja i doświadczenie ludzi. Ludzie doskonale radzą sobie w rozumieniu abstrakcyjnych celów i nowych mechanik, co nadal jest trudne dla SI. Profesor NYU Julian Togelius podkreśla, że ogólne granie w gry - czyli zdolność do dobrej gry w różnorodne tytuły bez konieczności długotrwałego szkolenia - stanowi główne wyzwanie. Innowacje takie jak SIMA 2 od DeepMind Google, łączące uczenie przez wzmacnianie z zaawansowanymi modelami językowymi, dają nadzieję na poprawę rozumienia przez SI różnorodnych środowisk gier. Osiągnięcie poziomu SI na poziomie człowieka w grach będzie wymagało przełomów w kreatywności, planowaniu i abstrakcji, co zapoczątkuje nową erę inteligencji w grach.Zapisz się na codzienny newsletter Popular Science, aby otrzymywać informacje o najnowszych przełomach, odkryciach i wskazówkach do samodzielnych działań, sześć dni w tygodniu. Postępy modeli sztucznej inteligencji (SI) często ilustruje ich umiejętność grania. Deep Blue od IBM zaskoczył świat w 1997 roku, pokonując mistrza szachowego Garri Kasparowa, a niemal dwadzieścia lat później AlphaGo od Google pokonał ludzkiego mistrza w Go — kiedyś uważane za niemożliwe. Od tego czasu SI rozwinęła się od gier planszowych do gier wideo, korzystając z uczenia przez wzmacnianie, techniki kluczowej również do trenowania chatbotów jak ChatGPT, umożliwiającej maszynom opanowanie gier Atari oraz złożonych tytułów strategicznych takich jak Dota 2 i Starcraft II. Niemniej jednak, SI nadal ma trudności z szybkim opanowaniem różnych, bardziej otwartych gier — dziedziny, w której świetnie radzą sobie ludzie. Gdy napotyka na nieznaną grę, ludzie szybko pojmują jej podstawy, podczas gdy modele SI często zawodzą, co podkreślono w najnowszym artykule profesora informatyki z NYU Juliana Togeliusa i jego zespołu. Ta luka uwypukla podstawową różnicę między inteligencją ludzką a obecnymi możliwościami SI, wskazując, że przed sztuczną inteligencją jeszcze daleka droga do osiągnięcia lub przekroczenia poziomu ludzkiego umysłu. Gry od dawna służą jako idealne pole testowe dla SI ze względu na ich przewidywalne zasady, jasno wyznaczone cele i mechanizmy, które dobrze współgrają z uczeniem przez wzmacnianie: modele wielokrotnie grają w gry w symulacjach, ucząc się na zasadzie prób i błędów. To podejście umożliwiło DeepMind w 2015 roku opanowanie gier Atari i wpływa na dzisiejsze duże modele językowe trenowane na masowych danych z internetu. Jednak te modele świetnie sprawdzają się tylko w określonych zadaniach z wyraźnymi ograniczeniami; nawet niewielkie zmiany w projektowaniu gry mogą zakłócić działanie SI. Choć SI może osiągnąć umiejętności ponad ludzkie w danej grze, ma trudności z improwizacją. Ta ograniczenie staje się jeszcze bardziej widoczne w miarę jak nowoczesne gry stają się coraz bardziej otwarte i abstrakcyjne. W przeciwieństwie do szachów, gry takie jak "Red Dead Redemption" z otwartym światem mają złożone cele powiązane z wcielaniem się w moralnie konfliktową postać, a nie prostymi zadaniami do wykonania.
Ludzie intuicyjnie pojmują takie niuanse; maszyny nie. Nawet w prostszych grach sandbox, takich jak "Minecraft", SI może wykonywać podstawowe czynności, jak skakanie, bez zrozumienia ich kontekstu. Autorzy podkreślają, że dobrze zaprojektowane gry ściśle współgrają z ludzką intuicją, zdrowym rozsądkiem i doświadczeniem życiowym — które ludzie gromadzą przez lata interakcji ze światem. Na przykład niemowlęta uczą się rozpoznawać obiekty około 18-24 miesiąca życia, głównie poprzez doświadczenie, podczas gdy maszyny potrzebują znacznie więcej ukierunkowanych wskazówek. Taka przewaga doświadczenia pozwala ludziom szybciej uczyć się nowych gier. Badania wykazują, że AI ucząca się na zasadzie ciekawości i wzmacniania potrzebuje około czterech milionów kliknięć — czyli około 37 godzin ciągłej gry — aby ukończyć grę, podczas gdy przeciętni gracze opanowują nowe mechaniki w mniej niż 10 godzin. Niemniej jednak, SI robi postępy w ogólnej rozgrywce. W 2023 roku Google DeepMind zaprezentowało SIMA 2, model łączący istniejącą SI z możliwościami rozumowania dużego modelu językowego Gemini, co pozwala na lepsze rozumienie i interakcję z grami 3D — nawet tymi, na których nie był specjalnie szkolony. Jednak Togelius i jego zespół ostrzegają, że SI wciąż ma dużo do nadrobienia, aby dorównać ludzkiej adaptacyjności. Proponują benchmark, w którym model mógłby grać i wygrywać w 100 najlepszych grach na Steam lub iOS App Store bez wcześniejszego treningu na ich podstawie — i robić to w mniej więcej takim czasie, jaki potrzebowałby na to człowiek. To wciąż poważne wyzwanie, na które obecne metody sztucznej inteligencji nie są jeszcze przygotowane i nie próbują poważnie podjąć. Osiągnięcie takiego poziomu uogólnienia wymagałoby od SI wykazania się prawdziwą kreatywnością, zdolnością do planowania i myślenia abstrakcyjnego — cechami unikalnie charakteryzującymi ludzką inteligencję. Ostatecznie, prawdziwym testem dla SI, sięgającej poziomu „człowieczej inteligencji”, może nie być tworzenie deepfake'ów czy pisanie powierzchownych powieści, lecz umiejętność opanowania szerokiego wachlarza różnych gier z ludzką szybkością uczenia się i zrozumienia.
Watch video about
Postęp i wyzwania sztucznej inteligencji w opanowaniu ludzkiego poziomu inteligencji w grach
Try our premium solution and start getting clients — at no cost to you