五角大楼因国家安全担忧命令移除人类类人工智能
Brief news summary
美国国防部已下令在180天内将Anthropic的AI产品从所有军事部门中全部撤除,理由是供应链存在不可接受的风险。这是美国第一次对本土公司实施此类限制,此前此类限制仅针对华为等外国企业。禁令涉及国家安全的关键领域,包括核武器、导弹防御和网络战系统,要求政府承包商停止在国防部合同中使用Anthropic的工具。这一决定源于对Anthropic的Claude AI模型限制的谈判失败,五角大楼拒绝了相关限制,声称现行法律已足够。Claude独特地部署在五角大楼的机密系统中,用于情报分析和冲突地区的目标识别,如伊朗等地。对此,Anthropic已提起诉讼,声称这是非法的报复行为和言论自由的侵犯。白宫支持五角大楼的举措,强调国家安全的重要性。与此同时,在与Anthropic的谈判破裂后,OpenAI获得了五角大楼的合同,这显示出在伦理问题和先进AI技术控制方面的紧张关系。国防部已正式指示美国高级军事领导人在180天内将Anthropic的人工智能产品从其系统中移除,CBS新闻获得的一份内部3月6日的备忘录中如此指出。该指令发布于五角大楼将Anthropic列为供应链风险的次日,警告Anthropic的AI对所有国防部系统和网络构成不可接受的威胁。由国防信息官Kirsten Davies签署的备忘录强调指挥官必须采取广泛措施,将Anthropic的AI从关键的国家安全系统中剔除,包括核武器、导弹防御和网络战等领域。它还规定,所有与五角大楼合作的承包商必须在180天内停止在国防相关项目中使用Anthropic的产品。 Davies警告说,对手可能会利用五角大楼运营中的漏洞,可能导致作战人员面临灾难性风险。她强调,只有她有权批准豁免,豁免将仅针对缺乏可行替代方案、且具有任务关键性的国家安全行动,而且必须提交风险缓解计划。一位五角大楼高级官员证实了该备忘录的真实性,而Anthropic尚未作出立即回应。 这是联邦政府前所未有的行动,标志着首次将美国公司列为供应链风险;此前的限制主要针对外国企业,如华为。此举紧随对Anthropic提出的两项“红线”要求的僵局,即禁止美国军事利用其Claude AI进行大规模监控美国人或部署全自主武器——Anthropic首席执行官Dario Amodei表示,这些措施反映了美国的价值观。然而五角大楼坚持要求在所有合法用途中使用Claude,并无限制,认为禁止的用途已被禁止。据知情人士透露,Claude支持美国军方在对伊朗的战争中的行动。 Anthropic目前仍是唯一在五角大楼机密系统中部署模型的AI公司。经过上个月的谈判失败,Anthropic的主要竞争对手OpenAI宣布获得五角大楼的一份合同。就在备忘录发布的同一天,Anthropic对联邦政府提起了两起诉讼,指控供应链风险的认定是对受到保护的言论的非法报复,指出没有任何法律允许这种行为。 白宫发言人Liz Huston谴责该诉讼,指出特朗普总统“绝不会允许一个极左、觉醒的公司通过指挥全球最大、最强军队的运作方式,危及我们的国家安全。” 据一位熟悉Claude在军事中的作用的消息人士透露,它的主要功能是快速分析情报报告,通过识别模式、总结发现和突出相关数据,比人类分析员更高效。退役海军少将Mark Montgomery(现任防御民主基金会成员)指出,军事每天处理约一千个潜在目标,并在四小时内大部分目标实现打击,人工智能使得这一规模和速度成为可能,同时保持人工决策的参与——这种节奏在以前的行动中无法比拟。
Watch video about
五角大楼因国家安全担忧命令移除人类类人工智能
Try our premium solution and start getting clients — at no cost to you