洛杉矶(美联社)——已故的詹姆斯·厄尔·琼斯在93岁去世后,在他六十年的演艺生涯中留下了不可磨灭的印记,以其强大的声音和难忘的角色而闻名。他在《梦想之地》中扮演孤僻的作家和在《来到美国》中扮演骄傲的国王,而在百老汇,他凭借《伟大的白色希望》和《篱笆》赢得了两次托尼奖。他的配音作品,特别是《狮子王》中的穆法萨和《星球大战》中的达斯·维达,使他在粉丝中巩固了传奇地位。 在他去世后,有关琼斯决定允许使用人工智能复制他在迪士尼+系列《欧比旺·克诺比》中达斯·维达声音的讨论出现了。这项技术由Skywalker Sound和乌克兰公司Respeecher使用,还包括数字化改变马克·哈米尔在《曼达洛人》中的声音。虽然一些配音演员担心人工智能可能通过允许工作室在未经同意的情况下重现表演而威胁他们的工作安全,但其他人认为琼斯的选择是未来公平补偿和明确协议的典范。 SAG-AFTRA谈判委员会成员泽克·艾尔顿指出,如果工作室对所有演员都像对琼斯一样提供同样的同意和透明度,可以避免工会罢工。好莱坞的视频游戏表演者最近在关于人工智能保护的谈判失败后举行罢工,强调他们的担忧不是反对人工智能,而是关于工作置换的风险。 克服了童年口吃的琼斯对自己能够讲话表示感激。他旨在为达斯·维达增添深度,但被建议保持限制的情感范围,以符合角色的机械性质。Skywalker Sound的一名代表提到,琼斯同意使用存档录音来维持他所赋予生命的角色。 通过人工智能永久使用演员声音的能力可能会挑战那些专门从事声音匹配工作的人的工作机会。布罗克·鲍威尔警告说,这可能会导致对过去表演的依赖,而不是培养新人才。克里斯平·弗里曼建议,虽然人工智能可能限制某些角色,但它不会消除新角色创新的机会。 像萨拉·爱尔梅雷这样的专家认为琼斯的合同是负责任和有创意谈判使用外观的潜在模板。艾尔顿警告说,广泛使用没有出处的角色声音可能会削弱其中的艺术性,呼吁采取平衡的方法来未来的娱乐,维持人性和创意。
一项随机试验发现,使用人工智能(AI)协助心脏超声波的临床决策与当前方法在识别可能受益于侵入性检查和治疗的疑似心脏病患者方面并没有显著差异。然而,研究显示,AI对缺乏经验的临床医生的决策有改善作用,并在临床复杂的子组中有可喜的结果。来自牛津大学的首席作者Ross Upton博士认为,人工智能在医疗中的整合为更快速和更准确的诊断带来了希望。研究召集了因评估疑似冠状动脉疾病(CAD)而转诊到压力超声心动图(SE)诊所的患者。AI软件EchoGo Pro为临床医生提供了SE图像的自动解释。虽然AI在整体上没有表现出优于临床决策的非劣效性,但它在缺乏经验的临床医生和具有挑战性的诊断情境中显示出了潜在的好处。
加州立法者已批准一系列提案,以规范人工智能行业,打击深度伪造,并保护工人免受技术进步的剥削。当前,由民主党控制的加州立法机构正在其会期最后一周对众多法案进行投票,截止日期为周六,届时将把这些法案提交给州长加文·纽瑟姆审议。州长必须在9月30日前签署、否决或让提案未经签署自动生效。尽管他在七月表示有意签署一项反对选举深度伪造的提案,但尚未对其他立法表态。州长此前强调了过度监管可能对该州本地产业产生的负面影响。已通过的一些值得注意的人工智能法案包括解决AI在欺骗性选举实践、深度伪造和儿童性虐待图像创建中的使用。此外,加州正在考虑成为第一个为大型人工智能模型建立全面安全措施的州,要求数据使用透明,并实施防范风险和算法歧视的保护措施。还有一些提案是为了保护工人不被AI生成的克隆体所替代,防止AI用于替换呼叫中心员工,并对未经同意数字克隆已故人员施加惩罚。此外,立法者希望通过在学校课程中整合AI技能并制定教室内AI使用指南来提高AI素养。
Klarna的首席执行官Sebastian Siemiatkowski希望在不久的将来将公司的员工人数减少到2,000人,从高峰时期的5,000人减少。Siemiatkowski表示,他们可以用更少的员工实现更多的目标,一般目标是在没有具体截止日期的情况下达到2,000人。 Klarna一直是实施人工智能的坚定支持者,尤其是在大型语言模型出现之后,因为它有可能显著减少所需的员工数量。公司与OpenAI合作开发的人工智能聊天机器人已经能够处理700名客户服务代理的工作量。 虽然Klarna仍然将一些客户服务任务外包,但它也打算利用人工智能来处理某些市场角色。该公司已经开始在其财务表现中见证人工智能的好处。 2024年上半年,Klarna的收入比2023年同期增长了27%。此外,过去一年中,每名员工的收入从400万瑞典克朗(39
马里兰州盖瑟斯堡——今天,美国商务部的国家标准与技术研究所(NIST)宣布与Anthropic和OpenAI建立合作关系,正式确立他们在人工智能安全研究、测试和评估方面的联合努力。 根据谅解备忘录,美国人工智能安全研究院将提前获得两家公司重大新模型的访问权,从而能够在评估能力和解决与人工智能相关的安全风险方面进行合作研究。该协议还促进了与英国人工智能安全研究院协调共享关于Anthropic和OpenAI模型潜在安全改进的见解。 据美国人工智能安全研究院主任伊丽莎白·凯利(Elizabeth Kelly)称,这些协议标志着在推进人工智能安全科学和促进负责任创新方面的重要里程碑。目的是支持人工智能的发展和管理,重点是安全。 通过这些合作进行的评估有助于NIST在推进技术、标准和测量科学方面的丰富历史。通过促进深度合作和探索性研究,NIST旨在解决与高级人工智能系统相关的各种风险。 此外,这些评估与拜登-哈里斯政府关于人工智能的行政命令以及领先的人工智能模型开发者所做的确保人工智能安全、可靠和可信的承诺保持一致。 关于美国人工智能安全研究院:
- 1