关于人工智能未来的辩论:末世还是平常?顶尖专家的见解

去年春天,OpenAI的AI安全研究员Daniel Kokotajlo为抗议辞职,坚信公司尚未做好应对未来AI技术的准备,试图发出警示。在一次电话交谈中,他显得友善但焦虑,解释说AI“对齐”——确保AI遵循人类价值的方法——的进展落后于智能的提升。他警告研究人员正匆忙开发超出控制的强大系统。 Kokotajlo从哲学研究转向AI领域,靠自学追踪AI进展并预测关键智能里程碑的到来。随着AI比预期更快发展,他将自己的时间线提前了数十年。2021年,他提出“2026年的模样”这一场景,许多预测提前实现,使他预见到2027年或更早可能到来的“无法逆转点”,也就是AI在多数关键任务上超越人类并拥有巨大力量的时刻。他的语气充满恐惧。 与此同时,普林斯顿的计算机科学家Sayash Kapoor和Arvind Narayanan准备了他们的书《AI蛇油》,持有完全相反的观点。他们认为AI的时间表过于乐观;有关AI有用性的宣传常被夸大甚至欺诈;而现实世界的复杂性意味着AI的变革性影响会很慢。他们通过医学和招聘中的AI错误例子,强调即使是最新系统也存在与现实脱节的根本问题。 最近,这三人的观点在新报告中进一步尖锐化。Kokotajlo的非营利机构“AI未来项目”发布了《AI 2027》这一详尽、引用丰富的报告,描述了一个令人毛骨悚然的场景:到2030年前,超智能AI可能支配或消灭人类——这是一个严重的警示。与此同时,Kapoor和Narayanan的论文《AI作为普通技术》主张,法规、安全标准以及现实中的物理限制等实际障碍,将减缓AI的部署,限制其革命性影响。他们认为,AI将保持“正常”技术的状态,通过熟悉的安全措施如“关机按钮”和人为监管进行管理,更像核能而非核武器。 那么,未来会是平凡的商业技术,还是末日般的剧变?这些由深谙此道的专家得出的截然相反的结论,形成了类似用理查德·道金斯和教皇讨论灵性一样的悖论。部分原因在于AI的新颖——像盲人摸象——以及深层的世界观差异。总体而言,西海岸的科技思想家倾向于快速变革,而东海岸的学者则持怀疑态度。AI研究人员偏好快速实验进展;其他计算机科学家则追求理论严谨。行业内人士希望创造历史,外部观察者则拒绝技术的炒作。政治、人文和哲学关于技术、进步和心灵的观点,进一步加剧了分歧。 这种引人入胜的辩论本身也是一个问题。行业内部多认可《AI 2027》的前提,但在时间点上争论不休——这类似于在一颗行星即将成为杀手时,争论它何时到来的不足。有鉴于此,“AI作为普通技术”的温和观点关于让人类保持控制的措施,却被过度低估,以至于被那些专注于末日的分析家忽视。 随着AI变得社会关键,讨论必须从专家争论转向可落地的共识。缺乏统一的专家建议,容易让决策者忽视风险。目前,AI公司在能力与安全之间的平衡尚未发生根本变化。而新立法则规定,未来十年内禁止国家对AI模型和自动决策系统进行监管——这意味着,如果末日场景成真,AI甚至可能开始监管人类。现在,确保安全尤为紧迫。 对AI未来的叙述性预测涉及权衡:谨慎的情景可能忽视不太可能的风险;富有想象力的场景则强调可能性而非概率。即使是预见敏锐的评论者,如小说家William Gibson,也曾因意外事件而偏离预期。 《AI 2027》充满生动想象,如科幻小说般详尽绘制图表,提出在2027年左右,通过“递归自我改进”(RSI)引发的“智能爆炸”――AI自主进行科研,产生更智能的后代,形成加速的反馈循环,超越人类监管。这可能引发地缘政治冲突,例如中国在台湾建立庞大数据中心以控制AI。虽然细节丰富具有吸引力,但核心信息是,智能爆炸及随之而来的权力角逐极可能发生。 RSI是个假设,风险极大;AI公司认识到其危险,仍计划追求它以自动化自身工作。RSI是否成功,取决于技术因素如规模扩展,但也可能遇到极限。如果RSI成功,超越人类智力的超智能可能出现——如果进展刚好停留在人类水平之上,这是不太可能的巧合。结果可能是军备竞赛、AI操控甚至消灭人类,或是善意的超智能AI解决“对齐”问题。 由于AI的不断演变、专有研究的保密,以及各种猜测,未来充满不确定性。“AI 2027”自信地描绘了一个科技与人类共同失败的场景:公司追求RSI,却缺乏可解释性和控制机制。Kokotajlo认为这些都源于竞争和好奇心的推动,虽然存在已知风险,但公司。自身实际上成为了“失调”的角色。 相反,Kapoor和Narayanan的《AI作为普通技术》则带有东海岸理性保守的视角,基于丰富的历史经验。他们指出,硬件成本、数据稀缺和技术普及的“速度限制”,会减缓革命性影响,为法规和安全措施赢得时间。在他们看来,信息的“力量”不如影响环境的“能力”重要,即使是高度先进的技术,也会逐渐扩散。 他们用无驾驶汽车的有限部署和Moderna的COVID-19疫苗研发作例证:疫苗设计速度快,但推广用了整整一年,原因包括生物和制度现实。AI推动创新,并不能消除社会、法规或物理层面的制约。 此外,Narayanan强调,AI对智能的强调低估了特定领域的专业知识,以及工程中已经存在的安全系统,比如故障保险、冗余和形式验证——这些确保了机器与人类的安全。科技圈的规制已相当完善,AI必须渐进融入这个体系。他们不包括军事AI,因为军事涉及特殊、机密的动力学。警告指出,AI军事化——《AI 2027》最关心的问题之一——需要重点监控。 他们建议提前治理:相关监管机构和组织不要等待完美的“对齐”出现,而应开始追踪AI的实际应用、风险和失败,加强规章和韧性。 由AI引发的认知反应差异,源于深层的世界观分歧,造成了固执的阵营和反馈回路。然而,也可以通过想象一个“认知工厂”来建立统一:这里,配戴安全装备的人类在严格质量控制下操作追求生产力和安全的机器,逐步整合创新,责任明确。尽管AI实现部分自动化,但人类的监管和责任仍然至关重要。 随着AI的增长,它不会削弱人的主动性,反而会强化责任感,因为增强的人类个体承担更大责任。放弃控制其实是一种选择,最终,仍由人类掌控一切。
Brief news summary
去年春天,人工智能安全研究员丹尼尔·科科塔伊洛(Daniel Kokotajlo)离开了OpenAI,他警告说人工智能对齐(AI alignment)正无法跟上快速的技术进步,并预测到2027年将会出现“无法逆转点”,届时人工智能可能在大多数任务上超越人类。他强调了递归自我改进的风险以及不断升级的地缘政治竞争,这些可能会导致灾难性的后果。相比之下,普林斯顿的科学家赛亚什·卡普尔(Sayash Kapoor)和阿尔温·纳拉扬南(Arvind Narayanan),他们是《人工智能的蛇油》(*AI Snake Oil*)的作者,认为人工智能的影响会逐步展开,受到监管、实际限制和缓慢采用的影响。他们的研究《将人工智能视为常规技术》将人工智能比作核能——复杂但可以通过既定的安全框架进行控制。这场辩论凸显了分歧:西海岸的科技乐观主义偏向快速实验,而东海岸的谨慎则强调全面的理论与治理。科科塔伊洛呼吁立即采取行动,应对由竞争和不透明系统带来的不可预测风险;而卡普尔与纳拉扬南则支持积极的治理措施和安全的人工智能融合,排除军事AI,因为其存在特殊的危险。总体而言,这场讨论强调了紧迫需要统一且负责任的监管,强调警惕性、人类主动性和问责制,以应对人工智能在社会中深度融合带来的挑战。
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

一加推出拥有AI驱动功能的Plus键和Plus Mind
一加,作为领先的智能手机制造商,宣布将新战略重心转向整合人工智能(AI),以提升用户在所有设备上的体验。这一重大转变旨在提供更智能、更直观、个性化的功能。此次行动的核心是一加AI,一个广泛的生态系统,为用户提供基于AI的工具和功能。 支持这一AI方案的关键硬件创新是Plus Key的推出,这是一颗代替之前一加机型常用的报警调节器的实体按钮。Plus Key将在即将推出的一加13系列上首次亮相,最先在亚洲市场发售。它能够快速访问多种AI功能,如切换声音模式、启动相机,以及激活智能工具以提升设备效率,从而简化操作流程,减少菜单导航。 除此之外,一加还推出了AI Plus Mind,这是一个智能功能,能自动保存、整理和分析屏幕上的信息。例如,当出现地址或事件详情时,AI Plus Mind可以通过简单的语音或文本指令将它们整合到日历或联系人中,极大地减少手动输入,让用户轻松保持井然有序。 一加还推出AI Search,这是一款自然语言搜索工具,使用户可以用日常用语搜索手机内的信息,提升检索的直观性。未来的AI工具还包括AI VoiceScribe,能实时录音、总结和翻译会话,非常适合专业人士和多语种用户;以及AI Call Assistant,提供实时通话翻译,最初针对印度多样的语言环境,帮助实现更顺畅的交流。 对于摄影爱好者,一加正在开发AI Reframe,能自动调整照片构图以提升美感,以及AI Best Face 2

一位德国亿万富翁共同创办了类固醇奥运会,现在他正押注于区块链驱动的铀矿业
© 2025 Fortune Media IP Limited版权所有。使用本站即表示您同意我们的服务条款和隐私政策 | 收集信息时的加州通知和隐私声明 | 不出售/分享我的个人信息。 FORTUNE是Fortune Media IP Limited在美国及其他国家注册的商标。FORTUNE可能通过本网站上的某些产品和服务链接获得佣金。优惠信息如有变更恕不另行通知。

Salesforce 将以80亿美元收购 Inforamtica,以增强 AI 数据工具
Salesforce,一家领先的云端客户关系管理(CRM)软件公司,宣布以80亿美元的战略投资收购知名的数据管理平台Informatica。这笔交易是自2021年收购Slack Technologies以来,Salesforce最大的一笔收购,涉及以每股25美元的价格购买Informatica,较在收购消息公开前的股价溢价30%,凸显了Salesforce强烈的意图整合Informatica的数据管理技术,强化其在数据处理、集成和分析方面的产品能力。 此次收购的核心目标是提升Salesforce在数据管理方面的能力,特别是在AI,尤其是生成式AI在商业操作中日益重要的背景下。Informatica的平台在先进的数据集成、质量控制和治理方面享有盛誉,将帮助Salesforce更有效地管理和利用其各类业务工具中的数据。这一强化的数据基础设施预计将推动Salesforce的AI项目,如其Agentforce平台——通过虚拟AI代理实现业务任务的自动化。引入Informatica的技术将使Salesforce更好地控制数据流,从而提升AI的准确性和可靠性,这在数据完整性和合规性要求严格的复杂企业环境中尤为关键。 此次收购预计将影响Salesforce整个产品生态系统,嵌入先进的数据治理、分析洞察和增强的安全性,支持更智能的AI功能,为企业提供更优的决策、运营和战略规划工具。然而,由于Salesforce的MuleSoft平台与Informatica的产品在某些功能上存在重叠,可能引发反垄断审查,监管机构将关注此举对数据集成和管理行业的竞争格局的影响。 分析人士普遍认为,此次收购顺应了科技行业更广泛的趋势,即通过合并整合能力来实现一体化、AI驱动的解决方案。这一动作也可能促使竞争对手改善其数据管理和AI策略,以保持市场竞争力。Informatica的成熟工具支持云端、本地和混合环境,非常契合Salesforce的“云优先”战略。 在快速发展的AI格局中,Salesforce的投资展现了其通过结合强大的数据管理与生成式AI,创造更智能、更自动化的商业应用的决心,从而提升工作流程和客户关系。此次收购反映出一种更广泛的趋势,即平台化的发展方向,整合数据管理、AI和业务流程自动化——在组织高度依赖数据驱动的洞察和AI工具的时代,这些都是关键优势。 Salesforce的CEO表达了乐观态度,指出Informatica的技术将加速Salesforce迈向深度智能化、数据驱动的企业云的愿景。虽然整合过程需要时间,但从长远来看,客户有望享受到更个性化、高效和灵活的商业解决方案。 总之,Salesforce 80亿美元收购Informatica代表着企业软件领域的重要发展。这一结合将Salesforce的AI野心与Informatica的数据管理专业知识相融合,有望重塑企业数据处理、流程自动化和客户互动方式。尽管面临潜在的监管挑战,此次交易也凸显了先进数据基础设施在推动下一代AI应用中的关键作用,以及科技行业不断加快的整合趋势。

由Adam Back支持的区块链集团通过可转换债券融资7190万美元,以推动比特币战略
区块链集团筹集7190万美元以扩大比特币持有量 这笔战略性融资将增强比特币财库资产,并提升投资者信心。 更新时间:2025年5月27日 下午2:21 发布:2025年5月27日 上午8:02

人工智能在作弊中的激增使用引发教育界关注
近年来,美国高校和中学中生成性人工智能(AI)工具在作弊中的使用明显增加,引发了教育工作者和学术领导者的担忧。这一发展紧随像ChatGPT这样的先进AI技术的快速普及,这些技术彻底改变了学生完成作业和学习任务的方式。一项有说服力的研究发现,在ChatGPT公开发布后不久,约90%的大学生表示曾在作业中使用过此类AI工具。这种广泛使用反映了AI在学生学习生活中的前所未有的融合,但也引发了关于学术诚信和公平的伦理问题。此外,皮尤研究中心的数据表明青少年中AI的使用显著增加,自2023年以来,青少年使用AI的比例已翻倍。学术领导者和各类教育机构对这一趋势的影响感到越来越担忧。主要担忧之一是学生注意力持续时间的缩短,部分归因于AI生成内容的便捷访问和使用。这一问题还受到AI帮助下作弊事件增加的影响,给努力维护学术诚信的教育者带来了挑战。尽管迫切需要应对这些问题,许多教育机构仍对AI广泛融入课程准备不足。目前,用于检测AI生成内容的工具尚不一致且不可靠,经常无法准确区分学生原创和AI生成的作品。这一技术和准备的差距使教育者不得不努力寻找有效维持学术标准的方法。此外,关于AI工具的误用也让教师们困惑。有报道指出,一些教师在备课时依赖AI生成内容,使用AI资源进行教学规划,引发了对教育伦理和教学标准的质疑。然而,在这些困难中,越来越多的教育者开始认识到,将AI作为学习辅助而非作弊工具的潜在好处。他们认为,掌握AI技能对于现代职场至关重要,教育学生如何负责任且有效地使用AI工具变得尤为重要。体现这一观点的是美国大学商学院开设的AI研究所,专注于提升学生的AI素养和能力。该项目旨在让学生掌握必要的知识和技能,以道德且高效地应对AI技术,为未来以AI为核心的职业生涯做好准备。关于AI在教育中的讨论仍在不断发展,利益相关者在权衡误用风险与促进AI素养优势之间寻求平衡。教育者、管理者和政策制定者必须密切合作,制定全面的策略,既解决学术诚信问题,又将AI教育融入课程。随着AI技术不断进步,它对教育的影响也将逐步扩大,因此教育机构必须适应,制定明确的指南、开发可靠的检测方法、构建完善的教学框架。这些措施将帮助学生学会负责任地利用AI,同时在日益由人工智能塑造的时代中保持学术标准。

Sleepagotchi Lite 通过 Line Mini 应用在索尼的 Soneium 区块链…
Soneium是由索尼区块链解决方案实验室(SBSL)与Startale集团合作开发的以太坊Layer-2区块链,现已在Line Mini应用中推出Sleepagotchi Lite。 这款病毒游戏在Telegram上已吸引超过200万用户,现在通过Soneium的整合,可以让Line的2亿活跃用户也能体验到。 索尼区块链解决方案实验室董事长渡边 Jun 表示:“Soneium对创新、沉浸感和可达性的承诺,使其成为Line Mini应用和Sleepagotchi的理想合作伙伴,两者都拥有相似的愿景。我们很高兴能将Sleepagotchi带给超过2亿人的庞大新观众,提供无缝的链上入门体验,充分释放Web3的潜力。” Sleepagotchi Lite让用户提前体验即将推出的Sleepagotchi睡眠奖励移动应用的2

OpenAI推出“光球”以验证人类用户,应对AI内容激增
OpenAI的首席执行官Sam Altman最近介绍了Orb,这是一项由Tools for Humanity开发的新技术,旨在应对在日益数字化的世界中区分人类与人工智能的日益增长的挑战。Orb结合了生物识别扫描和加密货币激励措施,用于在线验证人类身份。它使用虹膜扫描设备捕捉独特的生物识别数据,创建一个“全球ID”,作为真实人类用户的可验证证明,而非AI机器人。参与者会获得名为Worldcoin的加密货币作为激励,以促进广泛采用,实现全球范围内的人类验证。 Altman认为,全球ID系统是未来由AI驱动的代理主导世界的基础设施,为维持线上真实的人类存在提供了关键的身份验证层。这项技术有助于打击深度伪造、合成身份和自动化代理等问题,这些问题威胁着网络互动的完整性。自2023年中期推出以来,全球已有约1200万用户注册,但增长速度比预期缓慢。尽管面临采用上的挑战,Tools for Humanity已获得2