AI-udvikling og udfordringer i mestringen af menneskelignende gamingintelligens
Brief news summary
Kunstig intelligens (AI) har opnået bemærkelsesværdige milepæle inden for gaming, eksemplificeret ved IBMs Deep Blue, der besejrede Garry Kasparov, og Googles AlphaGo, der mestre Go. Forstærkningslæring har drevet AI-succes i Atari-spil og komplekse strategispil som Dota 2 og Starcraft II. Dog er der stadig udfordringer i AI’s evne til hurtigt at tilpasse sig åbne, mindre strukturerede spil, hvor menneskelig intuition og erfaring er afgørende. Mennesker er gode til at forstå abstrakte mål og nye mekanikker, områder hvor AI stadig kæmper. NYU-professor Julian Togelius påpeger, at generel videospilspilning—at kunne spille effektivt på tværs af forskellige spil uden omfattende træning—er en stor udfordring. Innovationer som Google DeepMind’s SIMA 2, der kombinerer forstærkningslæring med avancerede sprogsmodeller, lover godt for at forbedre AI’s forståelse af forskellige gaming-miljøer. At opnå AI på menneskeligt niveau i gaming vil kræve gennembrud inden for kreativitet, planlægning og abstraktion, hvilket markerer en ny æra inden for spilinventivitet.Tilmeld dig Popular Science’s daglige nyhedsbrev for gennembrud, opdagelser og DIY-tips, leveret seks dage om ugen. Fremskridtene inden for kunstig intelligens (AI) modeller illustreres ofte gennem deres evne til at spille spil. IBMs Deep Blue chokerede verden i 1997 ved at besejre skakmesteren Garry Kasparov, og næsten to årtier senere slog Google’s AlphaGo en menneskelig mester i Go—en opgave, der tidligere blev anset for umulig. Siden da har AI udviklet sig fra brætspil til videospil ved hjælp af forstærkningslæring, en teknik som også er afgørende for træning af chatbots som ChatGPT og gør det muligt for maskiner at mestre Atari-spil og komplekse strategispil som Dota 2 og Starcraft II. Men AI har stadig svært ved hurtigt at lære forskellige mere åbne spil—et område, hvor mennesker excellerer. Når de møder et ukendt spil, forstår menneskelige spillere hurtigt spillets grundlæggende elementer, mens AI-modeller ofte fejler, som det fremgår af et nyligt forskningsartikel fra NYU’s computer science-professor Julian Togelius og kolleger. Denne kløft understreger en grundlæggende forskel mellem menneskelig intelligens og AI’s nuværende evner og viser, at AI har en lang vej foran sig, før det kan opnå eller overgå ægte menneskelignende intelligens. Spil har længe været ideelle testfelter for AI takket være deres forudsigelige regler, definerede mål og mekanismer, der passer godt til forstærkningslæring: modeller spiller gentagne gange spil i simulationer for at forbedre sig via trial and error. Denne metode gjorde det muligt for DeepMind i 2015 at mestre Atari-spil og påvirker i dag store sprogmodeller trænet på enorme mængder internetdata. Men disse modeller er kun gode til specifikke opgaver med klare begrænsninger; små ændringer i spillets design kan forstyrre AI’s præstation. Selvom AI kan opnå supermenneskelig færdighed i et bestemt spil, har det svært ved improvisation. Denne begrænsning bliver mere tydelig, da moderne spil bliver mere åbne og abstrakte. I modsætning til skak har spil som det åbne verden-segmentet “Red Dead Redemption” komplekse mål, der er knyttet til at forvalte en moralsk tvetydig karakter snarere end klare mål.
Mennesker forstår intuitivt sådanne nuancer; maskiner gør ikke. Selv i enklere sandkassespil som “Minecraft” kan AI udføre grundlæggende handlinger som at hoppe uden at forstå deres kontekst. Forfatterne understreger, at veludformede spil stemmer tæt overens med menneskets intuition, sunde fornuft og levet erfaring—en erfaring, mennesker akkumulerer gennem flere års interaktion med verden. For eksempel lærer babyer at genkende objekter omkring 18 til 24 måneder blot gennem erfaring, mens maskiner kræver meget mere vejledning. Denne erfaring giver mennesker en fordel i at lære nye spil hurtigere. Forskning viser, at nysgerrighedsdrevet forstærkningslæring kan kræve omkring fire millioner tastetryk—eller cirka 37 kontinuerlige timer—for at gennemføre et spil, mens gennemsnitlige menneskelige gamere ofte lærer nye mekanikker på under 10 timer. Alligevel gør AI fremskridt inden for generel spilleglæde. I 2023 introducerede Google DeepMind SIMA 2, en model, der kombinerer eksisterende AI med ræsonneringskapaciteter fra dets store sprogmodel Gemini, hvilket muliggør bedre forståelse og interaktion med 3D-spil—selv dem, den ikke specifikt er trænet på. Togelius og kolleger advarer dog om, at AI stadig har et langt stykke vej foran sig, før det kan matche menneskets tilpasningsevne. De foreslår en benchmark, hvor en model kunne spille og vinde de 100 bedste spil på Steam eller iOS App Store uden forudgående træning på nogen af dem—og gøre det på omtrent den tid, et menneske ville bruge. Dette er en svær opgave, som nuværende AI-metoder hverken er tæt på at løse eller seriøst forsøger. At opnå dette niveau af generalisering ville kræve, at AI demonstrerer sand kreativitet, fremadvendt planlægning og abstrakt tænkning—kvaliteter, der er unikt karakteristiske for menneskelig intelligens. Til syvende og sidst kan den ægte test for AI’s “menneskelige intelligensniveau” ligge i dets evne til at mestre en bred vifte af forskellige spil med menneskelignende hastighed i læring og forståelse.
Watch video about
AI-udvikling og udfordringer i mestringen af menneskelignende gamingintelligens
Try our premium solution and start getting clients — at no cost to you