lang icon En

All
Popular
Sept. 2, 2024, 9:06 a.m. 大型试验表明人工智能用于心脏扫描可能有助于缺乏经验的临床医生做出决策

一项随机试验发现,使用人工智能(AI)协助心脏超声波的临床决策与当前方法在识别可能受益于侵入性检查和治疗的疑似心脏病患者方面并没有显著差异。然而,研究显示,AI对缺乏经验的临床医生的决策有改善作用,并在临床复杂的子组中有可喜的结果。来自牛津大学的首席作者Ross Upton博士认为,人工智能在医疗中的整合为更快速和更准确的诊断带来了希望。研究召集了因评估疑似冠状动脉疾病(CAD)而转诊到压力超声心动图(SE)诊所的患者。AI软件EchoGo Pro为临床医生提供了SE图像的自动解释。虽然AI在整体上没有表现出优于临床决策的非劣效性,但它在缺乏经验的临床医生和具有挑战性的诊断情境中显示出了潜在的好处。

Sept. 2, 2024, 7:12 a.m. AI 已引发关于网络抓取的争论

生成型 AI 模型依赖大型训练数据集,这些数据集通常由互联网的公共数据组成。然而,越来越多的组织通过 robots

Sept. 2, 2024, 6:02 a.m. 加州立法者通过禁止深度伪造、保护工人和监管人工智能的法案

加州立法者已批准一系列提案,以规范人工智能行业,打击深度伪造,并保护工人免受技术进步的剥削。当前,由民主党控制的加州立法机构正在其会期最后一周对众多法案进行投票,截止日期为周六,届时将把这些法案提交给州长加文·纽瑟姆审议。州长必须在9月30日前签署、否决或让提案未经签署自动生效。尽管他在七月表示有意签署一项反对选举深度伪造的提案,但尚未对其他立法表态。州长此前强调了过度监管可能对该州本地产业产生的负面影响。已通过的一些值得注意的人工智能法案包括解决AI在欺骗性选举实践、深度伪造和儿童性虐待图像创建中的使用。此外,加州正在考虑成为第一个为大型人工智能模型建立全面安全措施的州,要求数据使用透明,并实施防范风险和算法歧视的保护措施。还有一些提案是为了保护工人不被AI生成的克隆体所替代,防止AI用于替换呼叫中心员工,并对未经同意数字克隆已故人员施加惩罚。此外,立法者希望通过在学校课程中整合AI技能并制定教室内AI使用指南来提高AI素养。

Aug. 29, 2024, 5:02 a.m. Klarna有1,800名员工,希望人工智能将其淘汰

Klarna的首席执行官Sebastian Siemiatkowski希望在不久的将来将公司的员工人数减少到2,000人,从高峰时期的5,000人减少。Siemiatkowski表示,他们可以用更少的员工实现更多的目标,一般目标是在没有具体截止日期的情况下达到2,000人。 Klarna一直是实施人工智能的坚定支持者,尤其是在大型语言模型出现之后,因为它有可能显著减少所需的员工数量。公司与OpenAI合作开发的人工智能聊天机器人已经能够处理700名客户服务代理的工作量。 虽然Klarna仍然将一些客户服务任务外包,但它也打算利用人工智能来处理某些市场角色。该公司已经开始在其财务表现中见证人工智能的好处。 2024年上半年,Klarna的收入比2023年同期增长了27%。此外,过去一年中,每名员工的收入从400万瑞典克朗(39

Aug. 29, 2024, 2:03 a.m. 美国人工智能安全研究院与Anthropic和OpenAI签署关于人工智能安全研究、测试和评估的协议

马里兰州盖瑟斯堡——今天,美国商务部的国家标准与技术研究所(NIST)宣布与Anthropic和OpenAI建立合作关系,正式确立他们在人工智能安全研究、测试和评估方面的联合努力。 根据谅解备忘录,美国人工智能安全研究院将提前获得两家公司重大新模型的访问权,从而能够在评估能力和解决与人工智能相关的安全风险方面进行合作研究。该协议还促进了与英国人工智能安全研究院协调共享关于Anthropic和OpenAI模型潜在安全改进的见解。 据美国人工智能安全研究院主任伊丽莎白·凯利(Elizabeth Kelly)称,这些协议标志着在推进人工智能安全科学和促进负责任创新方面的重要里程碑。目的是支持人工智能的发展和管理,重点是安全。 通过这些合作进行的评估有助于NIST在推进技术、标准和测量科学方面的丰富历史。通过促进深度合作和探索性研究,NIST旨在解决与高级人工智能系统相关的各种风险。 此外,这些评估与拜登-哈里斯政府关于人工智能的行政命令以及领先的人工智能模型开发者所做的确保人工智能安全、可靠和可信的承诺保持一致。 关于美国人工智能安全研究院:

Aug. 29, 2024, 12:09 a.m. 英伟达的预测削弱了其他科技股对AI的热情

英伟达的预测令投资者失望,导致芯片股下跌。英伟达盘前交易下跌4

Aug. 28, 2024, 4:44 p.m. 加州的大型人工智能监管法案可能会提交给加文·纽森

加州立法者已经投票通过了一项有争议的法案,被称为参议院第1047号法案,该法案要求开发或修改强大人工智能形式的公司测试其模型对社会的潜在危害。该法案规定,无论是通过训练还是修改,花费大量资金在人工智能上的公司都必须评估模型在网络安全或基础设施攻击以及有害武器研发方面的能力。该法案遭到了谷歌和Meta等公司的反对,以及一些AI专家的反对,他们认为合规成本和法律问题可能会阻碍创新和开源AI工具的发布。另一方面,告密者和人工智能监管的倡导者支持该法案,声称AI工具构成了重大风险,政府监管不足。该法案的作者威纳参议员表示,其目的是维护已经与拜登总统和其他全球领导人达成一致的安全测试标准。尽管有人担心该法案可能导致企业离开该州,但威纳对这一论点不屑一顾,并引用了以前类似预测在采取其他技术法规后也没有实现的例子。该法案在通过之前经过了几次修订,支持者认为有必要预防潜在的AI灾难并需要更强的立法。此外,加州立法机关还在考虑其他与AI相关的法律,包括深度伪造的删除、学校的AI使用指南、打击自动化歧视和保护选民免受欺诈性深度伪造的措施。