关于人工智能未来的辩论:末世还是平常?顶尖专家的见解

去年春天,OpenAI的AI安全研究员Daniel Kokotajlo为抗议辞职,坚信公司尚未做好应对未来AI技术的准备,试图发出警示。在一次电话交谈中,他显得友善但焦虑,解释说AI“对齐”——确保AI遵循人类价值的方法——的进展落后于智能的提升。他警告研究人员正匆忙开发超出控制的强大系统。 Kokotajlo从哲学研究转向AI领域,靠自学追踪AI进展并预测关键智能里程碑的到来。随着AI比预期更快发展,他将自己的时间线提前了数十年。2021年,他提出“2026年的模样”这一场景,许多预测提前实现,使他预见到2027年或更早可能到来的“无法逆转点”,也就是AI在多数关键任务上超越人类并拥有巨大力量的时刻。他的语气充满恐惧。 与此同时,普林斯顿的计算机科学家Sayash Kapoor和Arvind Narayanan准备了他们的书《AI蛇油》,持有完全相反的观点。他们认为AI的时间表过于乐观;有关AI有用性的宣传常被夸大甚至欺诈;而现实世界的复杂性意味着AI的变革性影响会很慢。他们通过医学和招聘中的AI错误例子,强调即使是最新系统也存在与现实脱节的根本问题。 最近,这三人的观点在新报告中进一步尖锐化。Kokotajlo的非营利机构“AI未来项目”发布了《AI 2027》这一详尽、引用丰富的报告,描述了一个令人毛骨悚然的场景:到2030年前,超智能AI可能支配或消灭人类——这是一个严重的警示。与此同时,Kapoor和Narayanan的论文《AI作为普通技术》主张,法规、安全标准以及现实中的物理限制等实际障碍,将减缓AI的部署,限制其革命性影响。他们认为,AI将保持“正常”技术的状态,通过熟悉的安全措施如“关机按钮”和人为监管进行管理,更像核能而非核武器。 那么,未来会是平凡的商业技术,还是末日般的剧变?这些由深谙此道的专家得出的截然相反的结论,形成了类似用理查德·道金斯和教皇讨论灵性一样的悖论。部分原因在于AI的新颖——像盲人摸象——以及深层的世界观差异。总体而言,西海岸的科技思想家倾向于快速变革,而东海岸的学者则持怀疑态度。AI研究人员偏好快速实验进展;其他计算机科学家则追求理论严谨。行业内人士希望创造历史,外部观察者则拒绝技术的炒作。政治、人文和哲学关于技术、进步和心灵的观点,进一步加剧了分歧。 这种引人入胜的辩论本身也是一个问题。行业内部多认可《AI 2027》的前提,但在时间点上争论不休——这类似于在一颗行星即将成为杀手时,争论它何时到来的不足。有鉴于此,“AI作为普通技术”的温和观点关于让人类保持控制的措施,却被过度低估,以至于被那些专注于末日的分析家忽视。 随着AI变得社会关键,讨论必须从专家争论转向可落地的共识。缺乏统一的专家建议,容易让决策者忽视风险。目前,AI公司在能力与安全之间的平衡尚未发生根本变化。而新立法则规定,未来十年内禁止国家对AI模型和自动决策系统进行监管——这意味着,如果末日场景成真,AI甚至可能开始监管人类。现在,确保安全尤为紧迫。 对AI未来的叙述性预测涉及权衡:谨慎的情景可能忽视不太可能的风险;富有想象力的场景则强调可能性而非概率。即使是预见敏锐的评论者,如小说家William Gibson,也曾因意外事件而偏离预期。 《AI 2027》充满生动想象,如科幻小说般详尽绘制图表,提出在2027年左右,通过“递归自我改进”(RSI)引发的“智能爆炸”――AI自主进行科研,产生更智能的后代,形成加速的反馈循环,超越人类监管。这可能引发地缘政治冲突,例如中国在台湾建立庞大数据中心以控制AI。虽然细节丰富具有吸引力,但核心信息是,智能爆炸及随之而来的权力角逐极可能发生。 RSI是个假设,风险极大;AI公司认识到其危险,仍计划追求它以自动化自身工作。RSI是否成功,取决于技术因素如规模扩展,但也可能遇到极限。如果RSI成功,超越人类智力的超智能可能出现——如果进展刚好停留在人类水平之上,这是不太可能的巧合。结果可能是军备竞赛、AI操控甚至消灭人类,或是善意的超智能AI解决“对齐”问题。 由于AI的不断演变、专有研究的保密,以及各种猜测,未来充满不确定性。“AI 2027”自信地描绘了一个科技与人类共同失败的场景:公司追求RSI,却缺乏可解释性和控制机制。Kokotajlo认为这些都源于竞争和好奇心的推动,虽然存在已知风险,但公司。自身实际上成为了“失调”的角色。 相反,Kapoor和Narayanan的《AI作为普通技术》则带有东海岸理性保守的视角,基于丰富的历史经验。他们指出,硬件成本、数据稀缺和技术普及的“速度限制”,会减缓革命性影响,为法规和安全措施赢得时间。在他们看来,信息的“力量”不如影响环境的“能力”重要,即使是高度先进的技术,也会逐渐扩散。 他们用无驾驶汽车的有限部署和Moderna的COVID-19疫苗研发作例证:疫苗设计速度快,但推广用了整整一年,原因包括生物和制度现实。AI推动创新,并不能消除社会、法规或物理层面的制约。 此外,Narayanan强调,AI对智能的强调低估了特定领域的专业知识,以及工程中已经存在的安全系统,比如故障保险、冗余和形式验证——这些确保了机器与人类的安全。科技圈的规制已相当完善,AI必须渐进融入这个体系。他们不包括军事AI,因为军事涉及特殊、机密的动力学。警告指出,AI军事化——《AI 2027》最关心的问题之一——需要重点监控。 他们建议提前治理:相关监管机构和组织不要等待完美的“对齐”出现,而应开始追踪AI的实际应用、风险和失败,加强规章和韧性。 由AI引发的认知反应差异,源于深层的世界观分歧,造成了固执的阵营和反馈回路。然而,也可以通过想象一个“认知工厂”来建立统一:这里,配戴安全装备的人类在严格质量控制下操作追求生产力和安全的机器,逐步整合创新,责任明确。尽管AI实现部分自动化,但人类的监管和责任仍然至关重要。 随着AI的增长,它不会削弱人的主动性,反而会强化责任感,因为增强的人类个体承担更大责任。放弃控制其实是一种选择,最终,仍由人类掌控一切。
Brief news summary
去年春天,人工智能安全研究员丹尼尔·科科塔伊洛(Daniel Kokotajlo)离开了OpenAI,他警告说人工智能对齐(AI alignment)正无法跟上快速的技术进步,并预测到2027年将会出现“无法逆转点”,届时人工智能可能在大多数任务上超越人类。他强调了递归自我改进的风险以及不断升级的地缘政治竞争,这些可能会导致灾难性的后果。相比之下,普林斯顿的科学家赛亚什·卡普尔(Sayash Kapoor)和阿尔温·纳拉扬南(Arvind Narayanan),他们是《人工智能的蛇油》(*AI Snake Oil*)的作者,认为人工智能的影响会逐步展开,受到监管、实际限制和缓慢采用的影响。他们的研究《将人工智能视为常规技术》将人工智能比作核能——复杂但可以通过既定的安全框架进行控制。这场辩论凸显了分歧:西海岸的科技乐观主义偏向快速实验,而东海岸的谨慎则强调全面的理论与治理。科科塔伊洛呼吁立即采取行动,应对由竞争和不透明系统带来的不可预测风险;而卡普尔与纳拉扬南则支持积极的治理措施和安全的人工智能融合,排除军事AI,因为其存在特殊的危险。总体而言,这场讨论强调了紧迫需要统一且负责任的监管,强调警惕性、人类主动性和问责制,以应对人工智能在社会中深度融合带来的挑战。
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

孙正义的Tron通过反向合并实现上市
孙宇晨(Justin Sun),价值260亿美元的Tron区块链生态系统的创始人,宣布计划通过与纳斯达克上市公司SRM娱乐的反向合并,将Tron推向公众市场,这是Tron在金融和科技领域发展及提升知名度的关键一步。交易完成后,SRM娱乐将更名为Tron Inc

特朗普劳工部高级官员:美国工人不信任雇主使用人工智能
凯斯·桑德林(Keith Sonderling),前特朗普政府时期的劳工部副部长,近日强调了美国劳动力在AI普及方面面临的一个主要障碍:员工的不信任。在一次商业圆桌会议上,他解释说,员工对雇主使用AI的怀疑心态大大减缓了AI在各行业的融合。人们普遍认为AI具有变革性,能够提升生产力、决策能力和创新能力。然而,许多员工担心自动化会导致失业,这导致他们对AI驱动工具产生抵触情绪。 桑德林承认这些担忧是合理的,因为研究预测随着自动化程度的提高和AI取代常规及部分复杂任务,会造成大量职位流失。这种对工作安全的焦虑对AI的顺利推广构成挑战。为应对这一问题,特朗普政府倡导采取主动的教育策略。桑德林强调,应在教育早期引入AI知识,帮助未来的工作人员掌握相关技能并通过提高认知和理解减少恐惧。 为此,联邦政府发布行政命令,要求在全国各地学校开发AI课程。这项举措旨在揭开AI的神秘面纱,为学生适应融合AI的工作环境做准备,同时通过从根本上解决问题,增强公众的信任。关于AI在工作场所的更广泛讨论,既展现了技术的潜力,也直面了对岗位替代和伦理问题的合理担忧。桑德林的发言强调,除了技术进步之外,处理人类因素——即信任和接受——同样至关重要。 随着AI在商业职能中扮演越来越重要的角色,透明的沟通和员工的参与将变得尤为关键。雇主需要负责任地部署AI,并让员工了解其对岗位的影响。这一教育重点体现了一种前瞻性的战略,旨在确保劳动力的适应能力,并最大限度地发挥AI的经济潜力。尽管面临挑战,这些努力力求建立一支信息充分、自信且适应能力强的劳动力队伍,让AI成为一种推动进步的工具,而非威胁。 总之,克服员工的不信任是成功推广AI的关键。通过教育和透明化,企业与政府可以合作,将AI转变为增强和推动发展的工具,培育一支具有韧性、技能高、适应性强的美国劳动力,为未来的经济做好准备。

Avail 全面布局,抢占价值3000亿美元的全球区块链基础设施市场
2025年6月17日 — 迪拜,阿联酋 Avail推出了唯一可实现水平扩展性、跨链连接和统一流动性,同时保持去中心化的区块链技术栈。在Founders Fund、Dragonfly等顶级风险投资的支持下,Avail赋能于Lens、Sophon、Space & Time、Lumia、Skate以及机构化Token化平台等开创性Web 3

微软与OpenAI就AI合作展开复杂谈判
微软与OpenAI目前正陷入一场复杂且紧张的谈判,可能会显著重塑双方的战略合作关系,并影响整个人工智能行业。近年来,微软在OpenAI上投入了数十亿美元,深度整合其技术到自身的AI战略中。尽管双方关系紧密,但他们常常处于竞争状态。争议的主要源于OpenAI在企业重组前必须获得微软批准的义务,这是其向最近投资者做出的承诺。在这些谈判中,一个特别敏感的问题是关于WindSurf的,WindSurf是一个由OpenAI最近收购的编程创业公司。争论焦点在于微软是否可以访问和利用与WindSurf相关的知识产权。据报道,如果谈判陷入僵局,OpenAI已考虑对微软提起反垄断指控。尽管面临这些挑战和紧张关系,双方仍对达成彼此都能接受的解决方案充满希望。同时,各自也在准备备选方案,以保护自身利益。微软专注于增强其内部的AI开发能力,而OpenAI则通过与甲骨文、软银、谷歌等主要企业建立合作伙伴关系,扩大其计算资源。反映出双方持续合作并共同致力于AI发展,微软与OpenAI发表联合声明,强调其长期合作关系的富有成效,并希望在谈判推进中继续合作。这些谈判的结果预计将会影响未来AI发展的方向以及行业内的战略联盟。

加密货币集团Tron将通过与SRM的反向并购在美国上市
总部位于香港的加密货币创业者孙正义旗下的区块链公司Tron正准备通过与SRM娱乐公司(SRM

OpenAI获得2亿美元美国国防合同
OpenAI已与美国国防部签订一份价值2亿美元的合同,这是在人工智能与联邦国防合作中的一个重大里程碑。该合同旨在利用OpenAI的先进能力,开发原型前沿AI工具,以增强美国的国家安全。五角大楼计划通过这些工具改进作战策略和国防部的企业运作,凸显AI在现代国防中日益增长的作用,确保全球安全和运营效率。相关工作将立即启动,预计于2026年7月完成,主要集中在华盛顿特区,将首都打造为这一关键AI创新的中心。 OpenAI的参与凸显其在人工智能领域的快速发展和重要影响,截至2025年6月,年化收入达到100亿美元,显示出其在各行业的强劲扩展和广泛应用。除了这一合同之外,OpenAI还在由软银集团领投的融资中筹集了最高达400亿美元的资金,使公司估值约达3000亿美元,彰显投资者的高度信心。到2025年3月,该平台的每周活跃用户数已达5亿,表明AI工具已在日常生活和专业领域得到广泛整合。 国防部与OpenAI的合作是将尖端AI融入国家安全体系的战略举措,旨在提升作战准备、决策速度和效果。原型AI能力旨在突破技术界限,为军事和政府AI应用树立新标准。这一合作符合政府推动国防基础设施现代化和保持技术优势的整体努力,认为AI的进步是未来遏制和应对冲突的关键。 随着开发工作持续到2026年中期,AI工具的融入预计将改变国防部的操作流程、信息管理和战术决策支持。由软银牵头的巨额资金也将推动OpenAI在国防之外的更广泛AI创新。公司的估值令人瞩目,用户基础庞大,彰显其在塑造全球AI未来中的不断扩展作用。 总之,OpenAI与国防部的2亿美元合同标志着在应用先进AI于国家安全挑战方面迈出了重要一步。这一倡议体现了面向未来的国防技术思路,利用OpenAI的快速增长、资本支持和庞大用户群。这种合作模式或可成为未来公共与私营部门合作的典范,推动AI在政府和商业领域的变革潜能的充分发挥。

人工智能专家讨论先进AI系统可能带来的存在性风险
人工智能(AI)的快速发展引发了专家们广泛的讨论和担忧,尤其是关于其对人类长远影响的潜在风险。像特斯拉和SpaceX的CEO埃隆·马斯克,以及AI研究公司Anthropic的CEO达里奥·阿莫迪,他们都警告AI可能带来的严重生存威胁,估计由AI引发的人类灭绝的可能性高达10%到25%。这一令人警醒的评估凸显了制定强有力监管框架和安全措施以监督AI发展和应用的紧迫性。 以远见著称的马斯克长期警示未受监管的AI危险。他虽然认可AI的益处,但强调如果缺乏适当监管,AI可能会超越人类控制,导致灾难性后果。马斯克推崇积极的监管措施,以确保AI的进步以人类安全为优先。同样地,达里奥·阿莫迪也表达了类似的担忧,他带领的Anthropic主要致力于开发可解释、符合人类价值观的AI系统,以降低自主AI行为带来的风险。他的风险估算充分反映了许多AI界人士对未受控AI发展的严重关注。 随着AI系统的快速提升,越来越多的任务变得由AI独立完成,从复杂语义理解到自主决策,表现出曾被认为只能由人类完成的能力。这些进步虽然有望带来行业变革和生活质量的改善,但同时也带来了前所未有的挑战,即如何保证AI的安全和伦理运作。专家们指出,如果没有相应的保障措施,AI可能会被恶意利用或发展出与人类利益背道而行的行为。现代AI的复杂性增加了预测所有潜在故障或意外后果的困难,进一步加剧了对事故或恶意利用的担忧,也让AI治理的难度变得更加突出。 因此,科学界和政策制定者呼吁制定全面的AI法规,建立安全保护机制,确保AI设计过程的透明度,以及制定符合社会伦理的指导方针,使AI的操作与社会价值观保持一致。鉴于AI的全球性发展与部署,国际合作尤为重要。除监管外,持续的AI安全与伦理研究也至关重要。学术界和相关机构正努力开发既强大又可控、符合人类目标的AI系统,包括验证AI行为、提升可解释性、评估伦理影响等方面。 关于AI风险与监管的讨论反映了利用变革性技术的同时保护人类未来的更大挑战。随着AI以空前速度推进,平衡创新与谨慎变得尤为关键。马斯克和阿莫迪等领导者的警告突出了亟需解决这些问题的紧迫性。 总而言之,顶尖专家估计的AI可能引发的人类灭绝风险在10%到25%之间,是一个亟待解决的全球性问题。建立稳健的监管框架和安全措施,确保AI发展符合人类安全与价值观,是当务之急。若未能有效应对这些风险,将可能导致无法逆转的后果,因此,跨学科、深思熟虑的AI治理对人类未来至关重要。