AI-utvikling og utfordringer i å mestre menneskenivået spillintelligens
Brief news summary
Kunstig intelligens (KI) har oppnådd betydelige milepæler innen gaming, demonstrert ved IBMs Deep Blue som slo Garry Kasparov og Googles AlphaGo som mestrer Go. Forsterkningslæring har drevet AI-suksesser i Atari-spill og komplekse strategispill som Dota 2 og Starcraft II. Likevel gjenstår det utfordringer når det gjelder KI sin evne til raskt å tilpasse seg åpne, mindre strukturerte spill hvor menneskelig intuisjon og erfaring dominerer. Mennesker er svært flinke til å forstå abstrakte mål og nye mekanikker, områder der KI fortsatt strever. NYU-professor Julian Togelius peker på at generell videospill-playing — det å kunne spille effektivt på tvers av ulike spill uten omfattende forhåndstrening — er en stor utfordring. Innovasjoner som Google DeepMind’s SIMA 2, som kombinerer forsterkningslæring med avanserte språklige modeller, gir håp om å forbedre KI sin forståelse av ulike spillmiljøer. Å oppnå menneskelignende KI i gaming vil kreve gjennombrudd innen kreativitet, planlegging og abstraksjon, og markerer en ny æra i spillintelligens.Abonner deg på Popular Science sitt daglige nyhetsbrev for gjennombrudd, oppdagelser og gjør-det-selv tips levert seks dager i uken. Fremgangen til kunstige intelligens (KI) modeller blir ofte illustrert gjennom deres ferdigheter i spilling. IBMs Deep Blue overrasket verden i 1997 ved å beseire sjakk-mesteren Garry Kasparov, og nesten to tiår senere slo Googles AlphaGo en menneskelig mester i Go—noe som tidligere ble ansett som umulig. Siden den gang har KI utviklet seg fra brettspill til videospill, ved hjelp av forsterkningslæring, en teknikk som også er avgjørende for opplæring av chatboter som ChatGPT, og som gjør at maskiner kan mestre Atari-spill og komplekse strategititler som Dota 2 og Starcraft II. Likevel sliter KI fortsatt med å raskt lære ulike mer åpne spill—et område hvor mennesker utmerker seg. Når de møter et ukjent spill, forstår menneskelige spillere raskt dets grunnleggende elementer, mens KI-modeller ofte feiler, som nylig fremhevet i en artikkel av NYUs professor i informatikk Julian Togelius og kolleger. Dette gapet understreker en grunnleggende forskjell mellom menneskelig intelligens og KI sine nåværende evner, og viser at KI har en lang vei å gå før den oppnår eller overgår virkelig menneskelig nivå av intelligens. Spill har lenge vært ideelle testområder for KI på grunn av deres forutsigbare regler, definerte mål og mekanikker, som passer godt med forsterkningslæring: modeller spiller gjentatte ganger spill i simuleringer for å bli bedre gjennom prøving og feiling. Denne tilnærmingen førte til at DeepMind oppnådde mesterlighet i Atari-spill i 2015 og påvirker i dag store språkmodeller som er trent på enorme mengder data fra internett. Likevel er disse modellene kun gode til spesifikke oppgaver med klare begrensninger; små endringer i spillutformingen kan forstyrre KI sin ytelse. Selv om KI kan oppnå supermenneskelig ferdighet i ett enkelt spill, sliter den med improvisasjon og fleksibilitet. Denne begrensningen blir tydeligere etter hvert som moderne spill blir mer åpne og abstrakte. I motsetning til sjakk, har spill som det åpne verden-segmentet i “Red Dead Redemption” komplekse mål som ofte er knyttet til å leve ut en moralsk tvetydig karakter, heller enn å følge enkle mål.
Mennesker forstår intuitivt slike nyanser; maskiner gjør det ikke. Selv i enklere sandkassespill som “Minecraft, ” kan KI utføre grunnleggende handlinger som å hoppe uten å forstå sammenhengen. Forfatterne understreker at godt utformede spill er tett knyttet til menneskets intuisjon, sunn fornuft og levde erfaring—ting mennesker har oppnådd gjennom år med fysisk kontakt med verden. For eksempel lærer babyer å gjenkjenne objekter rundt 18 til 24 måneder, bare gjennom erfaring, mens maskiner krever mye mer veiledet input. Denne erfaringsbaserte fordelen gjør at mennesker kan lære nye spill raskere. Forskning viser at nysgjerrighetsdrevet forsterkningslæring i KI kan trenge omtrent fire millioner tastetrykk—eller rundt 37 timer sammenhengende—for å fullføre et spill, mens gjennomsnittlige menneskelige spillere ofte forstår nye mekanikker på under 10 timer. Likevel gjør KI store fremskritt innen generelt spillande. I 2023 introduserte Google DeepMind SIMA 2, en modell som kombinerer eksisterende KI med resonneringskapasiteter fra deres Gemini-store språkmodell, noe som fører til bedre forståelse og samhandling i 3D-spill—selv de den ikke var spesifikt trent på. Men Togelius og kolleger advarer om at KI fortsatt har betydelig vei å gå før den kan matche menneskelig tilpasningsevne. De foreslår en referansemåling hvor en modell kan spille og vinne de 100 beste spillene på Steam eller iOS App Store uten forhåndstrening på noen av dem—og gjøre dette omtrent i den tiden et menneske ville brukt. Dette er fortsatt en stor utfordring, og dagens KI-metoder er verken nære ved å løse den eller alvorlig prøver. Å oppnå dette nivået av allsidighet vil kreve at KI viser ekte kreativitet, fremtidsrettet planlegging og abstrakt tenkning—egenskaper som er helt unike for menneskelig intelligens. Til syvende og sist kan den reelle testen på at KI når “menneskelig nivå av intelligens” ikke være å lage dypfakes eller skrible overfladiske romaner, men dens evne til å mestre et bredt utvalg av ulike spill med læringshastighet og forståelse som minner om mennesket.
Watch video about
AI-utvikling og utfordringer i å mestre menneskenivået spillintelligens
Try our premium solution and start getting clients — at no cost to you