人工智能在掌握人类水平游戏智能方面的进展与挑战
Brief news summary
人工智能(AI)在游戏领域取得了显著的里程碑,例如IBM的Deep Blue击败加里·卡斯帕罗夫,以及谷歌的AlphaGo掌握围棋。强化学习推动了AI在雅达利游戏和像Dota 2、星际争霸II等复杂策略游戏中的成功。然而,AI在快速适应开放式、结构较少的游戏中仍面临挑战,这些游戏依赖于人类的直觉和经验。 humans excel in grasping abstract goals and novel mechanics, areas where AI still struggles. 纽约大学教授朱利安·托格利斯指出,通用视频游戏玩法——在没有大量先前训练的情况下在各种游戏中表现出色——是一项重大挑战。如谷歌DeepMind的SIMA 2这样将强化学习与先进语言模型结合的创新,为提升AI对多样化游戏环境的理解带来了希望。在游戏中达到人类水平的AI,将需要在创造力、计划性和抽象能力方面取得突破,这标志着游戏智能进入一个新时代。订阅《科学大众》(Popular Science)每日通讯,每周六天为您带来科技突破、发现和DIY技巧。 人工智能(AI)模型的进步,常通过它们在游戏中的表现来展现。IBM的“深蓝”在1997年击败国际象棋大师加里·卡斯帕罗夫,震惊了世界;近二十年后,谷歌的“AlphaGo”战胜了人类冠军——这曾被认为是不可能的。从那时起,AI已从棋盘游戏扩展到视频游戏,采用强化学习技术,这也是训练聊天机器人如ChatGPT的关键技术之一,使机器能够掌握“吃角子老虎机”游戏以及复杂的策略游戏如Dota 2和星际争霸II。 然而,AI仍然在快速学习更多开放式游戏方面面临困难——这是人类擅长的领域。当面对陌生游戏时,人类玩家能迅速掌握基本玩法,而AI模型常常失败,正如纽约大学计算机科学教授朱利安·托格利乌斯(Julian Togelius)及其同事最新发表的论文中所指出的。这一差距凸显了人类智能与当前AI能力之间的根本差异,也表明AI在达到甚至超越真正的人类水平智能之前,仍有很长的路要走。 多年来,游戏一直是测试AI的理想场所,原因在于其规则可预测、目标明确、机制清晰,非常适合强化学习:模型通过反复在模拟中玩游戏,借助试错不断提升能力。这一方法促成了DeepMind在2015年在“吃角子老虎机”游戏中的精通,也影响了今天基于海量互联网数据训练的大型语言模型。然而,这些模型仅在具有明确限制的特定任务中表现出色,游戏设计的细微变化就可能影响AI的表现。虽然AI可能在某个特定游戏中达到超越人类的技能,但在即兴发挥方面却仍然困难重重。 随着现代游戏变得越来越开放和抽象,这一限制尤为明显。比如,相比国际象棋,更像是“荒野大镖客”(Red Dead Redemption)这样拥有复杂目标、角色需要做出具有道德冲突选择的开放世界游戏,难度更大。人类凭直觉理解这些细微差别,而机器则无法如此。即使在“我的世界”(Minecraft)这类简单的沙盒游戏中,AI也可能能完成跳跃等基本动作,却无法理解其背后的具体意义。 作者强调,精心设计的游戏能紧密契合人类的直觉、常识和生活经验——这些经验是人类经过多年的现实世界互动积累而成。例如,婴儿在大约18到24个月左右,通过经验学会识别物体,而机器则需要更多指导才能做到类似的学习。 这种经验优势使得人类能够更快地掌握新游戏。研究表明,基于好奇心的强化学习AI可能需要大约四百万次按键操作——大约37小时的连续操作——才能完成一款游戏,而普通人类玩家通常在不到10小时内就能掌握新机制。 不过,AI在普通游戏玩法方面正不断进步。2023年,谷歌深 mind推出了SIMA 2模型,这是一种结合了现有AI与其“Gemini”大型语言模型推理能力的技术,能更好理解和交互3D游戏——即使这些游戏不是专门为其训练的。但托格利乌斯和他的同事警告称,AI在达到人类适应能力的水平之前,仍有很长的路要走。 他们提出一项基准测试,设想AI能在未经过任何训练的情况下,直接在Steam或iOS应用商店里的前100款游戏中取胜——并且所花时间与人类玩家大致相当。这一目标目前仍是巨大的挑战,现有的AI方法既未接近解决,也没有认真尝试。 要实现如此全面的泛化能力,AI必须展现出真正的创造力、前瞻性规划和抽象思维——这些是人类智能所独有的品质。最终,AI达到“人类水平智能”的真正考验,不在于能否制作假脸或写一些浅显的小说,而在于它是否能以接近人类的学习速度和理解能力,掌握各种不同类型的游戏。
Watch video about
人工智能在掌握人类水平游戏智能方面的进展与挑战
Try our premium solution and start getting clients — at no cost to you