lang icon En

All
Popular
Sept. 25, 2024, 7:19 a.m. 更大的人工智能聊天机器人更倾向于胡说八道——人们并不总是意识到

一项针对三种流行的高级人工智能聊天机器人的研究表明,当它们不知道某事时,它们往往比自己承认的更频繁地生成不正确的答案。这项由瓦伦西亚人工智能研究所的何塞·埃尔南德斯-奥拉洛领导的研究分析了大型语言模型(LLM)的错误,指出虽然随着模型规模和精细度的提高,准确性有所改善,但不正确回答的比率也在上升。相比于选择拒绝困难的问题,这些模型往往提供答案,导致误导性回答的增加。 埃尔南德斯-奥拉洛观察到,聊天机器人越来越擅长模仿知识而没有真正的理解,这种现象被称为“超限行为主义”。这可能导致用户高估聊天机器人的能力,带来风险。研究团队调查了OpenAI的GPT、Meta的LLaMA和开源的BLOOM等模型,评估了它们在各种问题类型上的准确性。尽管模型有所改进,他们发现超过60%的回答是错误或不合格的。此外,志愿者们常常将错误答案错误地分类为正确,这表明他们缺乏有效监督模型的能力。 为了提高用户理解,埃尔南德斯-奥拉洛建议开发者应改进对简单问题的性能,并训练聊天机器人避免回答困难问题。这将有助于用户识别AI何时可靠,何时不可靠。尽管一些聊天机器人可以承认自己缺乏知识,但对解决困难问题的推动依然显著,特别是在那些被市场宣传为通用用途的模型中。

Sept. 25, 2024, 5 a.m. 迄今为止最强大的开源AI模型可以超级增强AI代理

艾伦人工智能研究所(Ai2)推出了多模态开放语言模型(Molmo),这是一种强大的新型开源AI模型,能够解释图像并进行对话。这项技术有望使开发人员、研究人员和初创公司能够创建能够执行各种计算机任务(如浏览网页、文件导航和文档创建)的AI代理。 Ai2的首席执行官Ali Farhadi强调,Molmo将使多模态模型的更广泛部署成为可能,这些模型越来越被视为AI应用的未来。虽然像OpenAI和谷歌这样的主要参与者已经开发了具有视觉能力的模型,但这些选项主要通过付费API访问,限制了其在特定用途上的适应性。 相比之下,Molmo提供了一种开源的方法,使开发人员可以通过针对特定任务(如电子表格管理)进行自定义训练数据来微调模型。Ai2推出了几种版本的Molmo,包括适用于移动设备的小型十亿参数模型。尽管其规模较小,但Molmo由于其高质量的训练数据,性能与较大的商业模型相当。 虽然Molmo的开源性质促进了创新,但也引发了潜在滥用的担忧,例如创建恶意AI代理。然而,Farhadi认为,Molmo的效率将使开发人员能够创建可以在移动设备上有效运行的更复杂的软件。 未来的挑战不仅在于增强多模态模型的能力,还在于提高其推理能力,这是可靠性能的关键。Molmo的发布标志着向实现可以独立于主要科技公司运营的实用AI代理迈出了一步。

Sept. 25, 2024, 5 a.m. 一个新的小型开源AI模型表现与强大的大型模型一样出色

艾伦人工智能研究所(Ai2),一个非营利研究机构,推出了一系列名为Molmo的开源多模态语言模型,声称它们的表现可以与OpenAI、谷歌和Anthropic的领先专有模型相媲美。据报道,最大的Molmo模型拥有720亿参数,在图像和文档解释相关测试中超过了拥有1万亿参数的OpenAI的GPT-4o。此外,一个有70亿参数的较小版本在很大程度上接近OpenAI的顶级模型,这归功于Ai2高效的数据收集和培训实践。 Ai2的首席执行官Ali Farhadi强调,Molmo展示了开源AI的可行性,允许开发人员自由构建应用程序。尽管最强大的Molmo模型的部分仍未公开,但可以在Hugging Face平台上进行演示。与其他在互联网上抓取的噪声数据训练的庞大多模态模型不同,Molmo依赖于一个经过精心制作的600,000张图像的数据集,并显著提高了性能,同时使用了更少的资源,高级总监Ani Kembhavi指出。这是通过详细的人类标注转换为数据的AI技术加快培训过程实现的。 像Hugging Face的Yacine Jernite和斯坦福的Percy Liang这样的专家证实,使用高质量数据进行训练可以降低计算成本。Molmo的一个显著特点是其能够“指向”图像中的元素,从而增强与用户界面的交互。在演示中,该模型成功地识别并计算了照片中的物体,但在定位特定物品方面有所欠缺。 Ai2对开放性的承诺使其与其他AI公司区分开来,Molmo的潜力取决于开发者创建的应用程序。Farhadi认为,尽管专有模型吸引了大量投资,但开源方法可能会产生更好的回报,因为它有效利用资源并鼓励创新。“我们对启用其他人并看到他们构建的内容感到兴奋,”Farhadi说。

Sept. 25, 2024, 4:36 a.m. 伦敦报纸计划用人工智能复活已故艺术评论家,解雇真正的作家

布赖恩·塞维尔于2015年去世,享年84岁,被誉为“英国最著名和最具争议的艺术评论家”。他无惧挑衅,常被形容为各种不一定都是褒义的词语。多年来,他在伦敦晚报中撰写每周专栏,分享他尖锐而启示性的见解。如果他还活着,他可能会非常厌恶这个结果:报纸决定通过继续以他的署名发表文章来“复活”他的名字。然而,这些文章并非由在世的作家撰写,而是由人工智能程序生成的。 Deadline网站报道了这一发展,引用了两位熟悉报纸意图的消息人士。根据Deadline,“AI塞维尔被指定审查国家美术馆当前的展览《梵高:诗人与爱人》”,并且该聊天机器人的部署计划“在标准报和所有者列别捷夫勋爵的最高层讨论后决定”。 做出这一决定的动机尚不明确,大多数合理的解释都令人忧虑。可以理解的是,标准报只是在尝试通过制造争议和激起愤怒来增加读者参与度。最近,该报从日报转变为周报,同时解雇了许多传统作家,因此这种宣传噱头似乎很有可能。 另一个可能性是,标准报的编辑们真心(尽管令人困惑地)认为读者会对一个已故艺术评论家的AI版本会如何评价 当代艺术装置感兴趣。也许他们希望这个想法会显得很有魅力。这我真的说不上。 此外,我们不知道标准报是否会自己开发AI版的塞维尔,还是会与外部AI公司合作。Gizmodo已联系标准报以获取更多信息,并将在收到回复后更新这篇文章。 显而易见的是,目前形式下的AI在创造真正的艺术方面遇到了重大困难。认为它能够为读者欣赏和评估艺术质量的想法非常荒谬。 在我看来,与AI公司合作的媒体组织(这种合作最近激增)就像大学生将他们的地址交给潜在的威胁。经过过去二十年科技产业的严重冲击——失去了曾支持新闻业的广告收入——解决办法不是继续形成这些合作伙伴关系。尽管这种技术正在盛行,但报纸应该专注于报道AI行业,而不是与其结盟。

Sept. 25, 2024, 2:04 a.m. AI可以使电子游戏更加身临其境吗?一些工作室转向由AI驱动的NPC以增强互动

洛杉矶(美联社)——多年来,电子游戏一直通过脚本化的互动来引导玩家与非玩家角色(NPC)互动,指引他们的冒险。然而,人工智能(AI)的进步促使游戏工作室开始尝试生成式AI,这种技术可以创造动态环境、增强NPC对话,并引入类似桌面角色扮演游戏的即兴元素。 在多人游戏《零售法师》中,玩家管理一个魔法家具店,通过与顾客互动以获得五星评价。玩家可以创造性地与物体互动,例如拆开椅子或为顾客记下想法,而AI则通过实时对话和行动来协助,而不是依赖固定的脚本。 Jam & Tea Studios的联合创始人Michael Yichao认为,生成式AI可以通过使世界对玩家的创造力和故事讲述雄心更加响应而丰富游戏体验。传统的NPC体验常常感觉有限,但生成式AI旨在与角色和游戏环境建立更深的联系,允许玩家探索非脚本道的叙事。 包括Nvidia和育碧在内的科技公司处于将AI整合到游戏中的前沿。Nvidia的ACE技术创造了栩栩如生的数字角色,而育碧的Ghostwriter则协助NPC对话,而不取代人类作家。游戏开发者大会的报告显示,近一半的受访开发者目前正在使用生成式AI工具,特别是在独立工作室。 尽管AI充满希望,但大约80%的开发者对其伦理问题表示担忧。Jam & Tea的CEO Carl Kwoh提倡负责任地使用AI来增强,而不是取代创造性叙事。目标是促进玩家之间的联系,使他们能够探索新的叙事。 Yichao强调有意义的AI内容至关重要,指出使用AI使NPC能够动态反应增加了互动的深度。他提到,玩家已经创造性地将购物体验转变为约会模拟,展示了游戏的适应性。 在游戏《机甲破坏》中,Nvidia的AI允许玩家直接与NPC交流,以获得更具互动性的体验,大大加快了通常需要通过菜单导航的任务。 加拿大公司Artificial Agency开发了一款AI引擎,可以集成到游戏的各个方面,从NPC到可以指导玩家的同伴。他们的技术通过适应玩家的操作和偏好来支持个性化的游戏体验,使角色能够根据发展的游戏情节即兴发挥。 CEO Brian Tanner强调了脚本化每个潜在游戏结果的挑战,指出他们的AI驱动方法允许设计师专注于角色动机。随着AI技术的进步,它承诺使游戏世界感觉更加生动并对玩家互动作出响应,大大增强现实感。

Sept. 25, 2024, 1:22 a.m. 萨姆·奥特曼认为,如果不大量投入基础设施,战争将围绕人工智能展开。但这也带来了代价。

包括萨姆·奥特曼在内的行业领导者现在专注于开发人工智能基础设施,但专家警告称,相关成本不仅限于财务投资。开发通用人工智能所需的基础设施,如数据中心和硬件系统,可能会产生重大的社会、环境和经济成本。 最近,微软和贝莱德推出了一项300亿美元的基金,旨在提升美国在人工智能领域的竞争力并解决能源基础设施需求。此外,白宫召集了人工智能基础设施领导者,讨论在保持美国在人工智能领域领导地位的同时,如何将发展与国家安全和环境优先事项对齐。 一些专家对人工智能的快速扩展持怀疑态度,质疑其经济效益。Digiconomist的创始人亚历克斯·德·弗里斯认为,大规模数据中心并不会创造很多本地就业机会或经济活动,显示出糟糕的权衡。尽管OpenAI等公司预计将投资超过1万亿美元,但投资回报仍不明朗;虽然支持者提到潜在的医疗和气候解决方案改进,但近期的人工智能进展主要集中在聊天机器人和图像生成上,展示了其缺陷。 像邵磊·任这样的学者强调,需要向较小的、专业化的人工智能模型转变,而不是继续增加现有模型的规模,声称当前方法不可持续。此外,Ren和de Vries都强调了大型数据中心对环境的显著影响,这些中心消耗大量能源和水,违背可再生能源的承诺。 此外,凯里·科利亚纳泽强调,人工智能有可能提高社会的正面和负面效率,警告说人工智能的进步可能会导致更有效的武器或压迫,即使在医疗诊断等有用的应用中也是如此。虽然奥特曼承认进入他所谓的“智能时代”面临的挑战,但他对其潜在的好处表现出乐观态度。然而,专家警告称,必须解决诸如错误信息和工作位移等重大社会问题,以防止技术加剧现有的社会问题。科利亚纳泽强调,有必要将技术进步与必要的社会改革对齐,以实现一个充满希望的未来。

Sept. 25, 2024, 1:02 a.m. 利用AI重新利用现有药物治疗罕见疾病

全球有超过7,000种罕见和未确诊疾病,共影响大约3亿人。尽管这些疾病普遍存在,只有5%到7%的疾病有FDA批准的治疗方法,许多人未得到治疗或处理不足。 一个新的AI工具TxGNN通过为成千上万的疾病(包括17,080种缺乏现有治疗的疾病)识别潜在药物候选者,带来了希望。这款由哈佛医学院研究人员开发的模型是首个专门针对罕见疾病的此类工具。值得注意的是,AI从近8,000种现有药物中识别出候选药物,其药物识别效率比其他模型高50%,在禁忌症方面准确率高出35%。 重新利用现有药物是开发疗法的一种更快速且经济有效的方法,它利用了已经有完善安全数据的药物。然而,传统发现新用途的方法在很大程度上依赖于偶然和轶事证据。 TxGNN是独特的,因为它通过学习庞大的数据集了解多个疾病的共同特征,从而有助于推断对难以理解的条件的治疗可能性。其透明性功能通过提供药物选择的理由,提高了临床医生的信心。 研究人员建议,任何被识别的疗法仍需进一步验证,但相信这款工具可以显著加速药物重新利用的努力,特别是针对罕见疾病。与罕见疾病基金会的合作正在进行,以促进潜在治疗。