lang icon En

All
Popular
Dec. 3, 2024, 3:19 a.m. 离任的白宫首席技术顾问对人工智能的看法。

拜登总统的政府即将结束,白宫科学技术政策办公室主任阿拉提·普拉巴卡(Arati Prabhakar)也可能离任。普拉巴卡曾向总统演示ChatGPT,并帮助推进了2023年有关人工智能的行政命令,她强调了人工智能的安全性和透明度。特朗普政府可能试图推翻这一命令,目前尚未明确其对人工智能的立场。虽然特朗普支持共和党反对该命令的平台,但像Elon Musk这样的公众人物则提倡某些AI法规。 普拉巴卡指出,深度伪造滥用是人工智能的一个重要现实风险,同时表示对人工智能在生物武器方面角色的担忧仍然较小。她强调值得信赖的人工智能应用的重要性,特别是在国家安全中,指出面部识别导致的错抓事件等误用与机场安检中的高效应用形成对比。 关于加州否决人工智能安全法案问题,普拉巴卡表示并不惊讶,她提到了评估人工智能安全的实际挑战,并强调了在这一领域进行深入研究的必要性。 在人才方面,普拉巴卡将人工智能的进步与移民政策联系在一起,强调美国需要在与中国的竞争中吸引全球人才。分歧的移民辩论可能会阻碍吸引STEM人才,但《芯片法案》成功地将半导体生产范围从英特尔扩大到像台积电和三星这样的公司。 普拉巴卡反思公众对科学信任的波动,部分原因归结于美国尽管研究先进,但健康结果不佳。她建议这种脱节可能会助长怀疑和阴谋思维,可能会逆转公共健康收益。

Dec. 3, 2024, 12:46 a.m. 人工智能详解:AI优化的精妙艺术

主要科技公司正在努力提高其人工智能系统的效率,以应对不断上升的计算成本。这种从纯粹的性能到精简效果的转变正在重塑行业。人工智能优化涉及精炼软件以在减少计算资源消耗的同时提升性能,使运营更具可持续性。例如,Meta与AWS的合作优化其人工智能模型Llama以适应各种计算环境。 运行高级人工智能需要昂贵的基础设施,数据中心和专用处理器消耗大量能源。这引发了软件架构的创新,如谷歌的量化技术和Meta在其Llama AL模型中的改进,降低了计算需求,并使较小的模型也能表现良好。 效率不仅限于成本控制。苹果的设备端机器学习用于Face ID,谷歌在Android上的设备端翻译展示了优化如何在移动设备上实现复杂的软件。高通的AI引擎使智能手机能够在本地运行神经网络,增强实时翻译和先进相机功能等特性。 微软Azure和AWS等云提供商推出了针对优化AI工作负载的专用实例以改进资源分配。英伟达的H100 GPU象征着行业向优化的转变,通过动态调整精度来增强LLM操作。 新的优化技术不断涌现。谷歌的稀疏模型训练专注于关键神经连接以减少计算需求,而英特尔的专用AI加速器则追求硬件效率。在硅谷之外,优化的机器学习模型帮助医疗和金融领域在标准设备上部署复杂处理。 优化的推动与创新同样重要,使公司在控制成本的同时提供更强大的服务。这一趋势标志着设计理念的根本变化,更强调可持续和实用的解决方案而不是单纯的计算能力。

Dec. 2, 2024, 10:29 p.m. 杰夫·贝佐斯支持人工智能芯片制造商Tenstorrent。

AI硬件初创公司Tenstorrent已获得近7亿美元的新融资。据彭博社报道,该公司完成了一轮6

Dec. 2, 2024, 8:05 p.m. AWS公布了一系列AI数据中心更新:四个关键要点

亚马逊(AMZN)最近宣布了一系列对其亚马逊网络服务 (AWS) 数据中心的增强措施,旨在为人工智能 (AI) 时代的基础设施做好准备。AWS 是该公司的云部门,公布了对其数据中心的更新以满足客户的 AI 需求。 《雅虎财经》科技编辑 Dan Howley 采访了 AWS 基础设施副总裁 Prasad Kalyanaraman,讨论了这些变化及其对投资者在 AWS AI 计划中的影响。 Kalyanaraman 强调了 AWS 的四个主要关注领域:设计简化、供电、冷却和容量。 “我们在简化电气和机械设计方面取得了重大进展,这将进一步提高我们客户的可用性,”他在接受《雅虎财经》采访时透露。 “第二个方面是生成式 AI 对机架和芯片的电力需求很大,这促使我们在这些服务器的供电设计上进行创新。” Kalyanaraman 补充道:“第三个重点是我们的冷却设计。我们开发了能够让现有数据中心同时使用液体和空气冷却的设计。” “最后,我们在机械和电气效率方面的改进达到 40% 到 46%,使我们在不扩大数据中心的情况下,增加了对客户的容量交付。” 在英伟达(NVDA)正式推出其新的 AI Blackwell 芯片之前,Kalyanaraman 讨论了 AWS 与英伟达的合作以及该芯片在 AWS AI 战略中的整合。“英伟达最新的 Blackwell 处理器需要液体冷却,因此我们开发了支持液体和空气冷却系统的基础设施。” 要获得更多关于当前市场趋势的专家见解和分析,请探索 Market Domination Overtime。 本文由 Naomi Buchanan 撰写。

Dec. 2, 2024, 6:40 p.m. 中国的AI平衡策略——在超越美国的同时防止技术威胁北京的统治

中国正努力发展超越人类智能的通用人工智能(AGI),并有可能超过美国。然而,这一进步可能会削弱共产党对中国经济的影响力。AI专家Max Tegmark称这种美中技术竞赛为“自杀竞赛”,因为其内在的危险。Tegmark警告,AGI可能会比预期更早到来,但缺乏必要的控制措施来管理风险。 虽然一些技术领导者,如OpenAI的Sam Altman预测AGI将在2025年出现,但其他人则认为还很遥远。美中两国在AI和芯片技术上的竞争十分激烈,Tegmark认为这是由于错误地相信AGI是可控的。这场“希望战争”可能带来严重后果,如果AGI超出了人类监管能力。中国本身对AGI持谨慎态度,因为它可能挑战共产党的权威,近期的AI法规也反映了这种担忧。 中国已将AI放在优先位置,大力投资于阿里巴巴和腾讯等公司以开发先进模型,同时保持严格的法规以将AI发展与国家利益保持一致。分析人士认为,中国将追求AGI的主导地位,同时控制其国内影响。尽管Tegmark的警告,两个国家均从地缘政治优势和经济增长的角度看待AI。美国试图限制中国获取关键技术,而中国则在建设自己的半导体产业作为回应。 Tegmark设想,来自两国的独立安全标准用于自我调节AGI风险,并可能导致国际合作,以防止AGI在其它国家(如朝鲜)失控传播。全球AI安全法规的倡议正在进行中,比如英国主办的峰会以及国际治理的讨论。然而,世界各地的AI法规仍然多样化,努力在解决安全问题上支离破碎。Trivium China的Schaefer指出,中国呼吁设立一个类似于管理核能的国际治理机构来监管AI。

Dec. 2, 2024, 5:17 p.m. 为什么超过14万名开发者参加了我们的五天生成式AI课程

随着人工智能的快速发展,全球的开发者、爱好者和学习者必须通过向顶尖专家学习来提升技能。为此,Google和Kaggle开发了一门为期五天的免费直播课程,名为生成式AI强化班。该课程精心设计,提供对生成式AI的全面理解,从大型语言模型(LLM)的基础知识到生产中的实际应用。 课程提供理论、实践学习和社区互动的均衡结合。每天的任务包括AI生成的播客(使用NotebookLM创建)、Google专家的白皮书以及使用Gemini和其他工具的实际编码实验室。课程内容包括: - 第一天:基础模型与提示工程 - 播客,直播 - 第二天:嵌入和向量存储/数据库 - 播客,直播 - 第三天:生成式AI代理 - 播客,直播 - 第四天:特定领域的LLM - 播客,直播 - 第五天:生成式AI的MLOps - 播客,直播 参与者还通过经过审核的Discord聊天和与Google专家的直播交流,解决社区问题。这些会话提供了对关键主题的深入见解,并与课程创建者互动。Kaggle上的实际编码实验室使参与者能够探索多种生成式AI技术和工具,包括Gemini API、嵌入、Langraph等开源工具以及Vertex AI。

Dec. 2, 2024, 1:43 p.m. 光子处理器可实现极高能效的超快速AI计算

深度神经网络模型变得如此之大和复杂,以至于它们挑战了传统电子计算硬件的能力。光子硬件使用光进行计算处理,提供了一种更快速且节能的替代方案,但由于某些神经网络计算的限制,性能有所下降。 来自麻省理工学院和其他机构的研究人员开发了一种新型光子芯片来解决这些问题。这种完全集成的光子处理器能够在芯片上光学地执行所有关键的深度神经网络计算。该芯片在半纳秒内完成了一项机器学习分类任务的计算,准确率达92%,与传统硬件相当。 该芯片使用商业代工工艺构建,具有形成光学神经网络的互连模块,预示着未来电子应用的可扩展性和集成性。这一进步可以提升深度学习的速度和能效,对激光雷达、天文学、粒子物理和电信等领域有益。 该系统能够在纳秒级别内以光学方式完成神经网络操作,显著加快了速度。研究负责人Saumil Bandyopadhyay强调了速度和效率对模型性能的重要性,以及创新应用和算法的潜力。 研究团队包括麻省理工学院的校友和教授如Alexander Sludds、Nicholas Harris、Darius Bunandar和Dirk Englund,该研究发表在《自然光子学》上。 光学神经网络涉及执行线性代数(如矩阵乘法)的互联节点层,这对于数据转换至关重要。非线性操作如激活函数使网络能够学习复杂模式。2017年,开发了一种用于矩阵乘法的单个光子芯片,但非线性操作需要将光学数据转换为电信号,消耗大量功率。 为了解决这一问题,研究人员设计了集成电子和光学的非线性光学功能单元(NOFU),用于芯片内的非线性操作。他们的光学神经网络由三层设备组成,用于线性和非线性功能。 新系统将神经网络参数编码为光,由可编程分束器处理矩阵乘法。非线性操作由NOFU执行,NOFU使用光电二极管有效地将光学信号转换为电流。这种光学领域处理极大地减少了延迟和能耗。 通过实现低延迟,系统能够在芯片上高效训练深度神经网络,称为原位训练,这通常在数字硬件中耗费大量能量。光子处理器在训练中达到了超过96%的准确率,推断中达到超过92%,在半纳秒内完成计算。 电路采用与CMOS芯片相同的工艺制造,可能实现低误差的大规模生产。未来的工作将专注于将设备与现实电子产品集成,并开发利用光学优势的算法,以实现更快、更省能的训练。 该研究得到了美国国家科学基金会、美国空军科学研究办公室和NTT研究机构的支持。