加州人工智能透明度法:2024年起对科技巨头的新要求
Brief news summary
自2024年1月1日起,加利福尼亚州颁布了一项突破性的法律,要求主要的人工智能开发商(包括谷歌和OpenAI)披露其先进模型对社会的影响,并保护举报安全隐患的吹哨人。该法律由参议员斯科特·韦纳(Scott Wiener)起草,州长加文·纽瑟姆(Gavin Newsom)签署,规定建立公共安全框架以管理人工智能风险,违规者最高罚款达100万美元。企业必须在发生人工智能相关的灾难性事件(如死亡超过50人或造成10亿美元以上的损失)后15天内报告,若存在自动驾驶人工智能带来的迫在眉睫的威胁,则须在24小时内报告。法律还通过公布人工智能的使用、限制和风险评估的公开报告,提高透明度,其中部分内容须经过独立审查。由于涉及保密提交和商业秘密保护,执法过程面临一定挑战。批评者指出该法律未涵盖环境危害、虚假信息、偏见和身份认定等问题,并且只适用于年收入超过5亿美元的公司。未来的规定将要求披露人工智能培训数据。由应急管理局编制的全面事故报告预计于2027年开始发布,但不包含具体模型名称,限制了透明度。这项具有里程碑意义的立法为其他州树立了典范,推动全国范围内提升人工智能的安全性和责任制。从2024年1月1日起,加利福尼亚州州长加文·纽瑟姆签署的一项新法案生效,要求开发大型先进人工智能模型的科技公司,例如谷歌和OpenAI,增强对社会影响的透明度,并保护提出安全隐忧的员工。这项法律为评估重大安全风险的员工提供举报者保护,并规定大型AI开发商必须在其网站上公布关于如何管理灾难性风险以及应对事件的框架。公司必须在15天内向州政府报告严重安全事故,若危及生命或造成伤害的威胁迫在眉睫,则必须在24小时内报告。每次违规可能面临高达100万美元的罚款。 该法案源自参议员斯科特·维纳提出的第53号参议院法案,目标是防范被定义为AI通过网络攻击或武器使用导致50人以上死亡、或造成超过10亿美元损失或破坏的灾难性风险,特别是在操作者失控的情况下——这主要是一个假设性问题。法律要求AI开发者发布透明度报告,描述预期使用模型、使用限制、风险管理方法以及第三方对这些措施的审查。 斯坦福的理财·博马萨尼是影响第53号法案报告的主要贡献者之一,他认为这项法案是推动AI透明度的重要进步。他指出,他团队所研究的13家公司中,只有3家公司定期报告事件,且透明度得分已有所下降。但他强调,这项法律的实施效果在很大程度上取决于政府机构的执法力度和资源投入。该法案也影响了其他州,例如纽约州在其AI透明度和安全法中借鉴了加州的模式。 尽管具有一定进展,但批评者指出该法案存在重要缺陷:不涵盖环境影响、虚假信息、系统偏见(如性别歧视或种族歧视)等风险,且不适用于政府用于公众画像或影响评估的AI系统。该法仅适用于收入超过五亿美元的公司。透明度要求也有限——提交给加州紧急事务办公室(OES)的事故报告是机密的,仅对立法者和州长开放,还可能出于保护商业机密的目的进行删减,这限制了公众的访问权。 博马萨尼希望2024年1月1日起生效的《第2013号法案》能带来更多透明度,该法案要求披露用于训练AI模型的数据。同时,第53号法案的其他规定将在2027年开始实施:届时,OES将制作关于公众和AI开发者提供的关键AI安全事故的匿名报告。虽然此举或将澄清AI可能被用于攻击或自动化行动的风险,但不会公开披露具体存在风险的AI模型。
Watch video about
加州人工智能透明度法:2024年起对科技巨头的新要求
Try our premium solution and start getting clients — at no cost to you