lang icon En

All
Popular
Sept. 18, 2024, 12:06 a.m. AI驱动广告活动的新功能和控制

Google Ads帮助企业在整个购买过程中接触到他们的客户,AI驱动的广告活动为各种规模的企业带来了显著的成果。响应用户对增强控制和洞察力的反馈,Google引入了几项重点关注最大化投资回报率(ROI)的进步。 在DMEXCO,一个著名的数字营销会议上,Google强调了五大关键创新: 1

Sept. 17, 2024, 4:17 p.m. 加利福尼亚州州长签署法律打击由人工智能创建的选举深伪图像

加利福尼亚州萨克拉门托(美联社)——周二,加利福尼亚州州长加文·纽森颁布了三项新法律,旨在遏制人工智能在2024年大选前用于创建虚假图像或视频的行为。 其中一项法律立即生效,禁止在选举日前120天内和选举日后60天内创建和传播与选举相关的深伪图像。该立法赋予法院停止传播此类材料并对违反者施加民事处罚的权力。 “保护选举的完整性对民主至关重要,我们必须确保人工智能不会被滥用,通过虚假信息侵蚀公众信任,特别是在当前的政治环境中,”纽森说道。“这些举措将有助于打击政治广告和其他形式内容中的深伪技术的有害使用,作为该州积极努力促进透明和可信的人工智能的一部分。” 此外,一项要求大型社交媒体平台消除欺诈性内容的开创性法律将于明年生效。另一项法案要求政治活动在其广告中使用人工智能修改材料时进行披露。 纽森在旧金山一个著名的软件会议上与Salesforce公司首席执行官马克·贝尼奥夫讨论期间,签署这些法案时得到了热烈的掌声。 这些新法律加强了加利福尼亚州作为美国人工智能监管先锋的声誉,特别是在打击选举深伪图像方面。该州是全国首个在2019年禁止操纵选举相关内容的州。专家指出,加利福尼亚州关于技术和人工智能的提案往往成为全国立法者的模范。 随着人工智能增加了全球选举虚假信息的风险,全国各地的立法者正在迅速采取行动应对这一问题,担心此类操纵内容可能会削弱公众对媒体的信任。 “距离大选不到50天,迫切需要防止误导性、数字修改内容干扰选举,”法案作者议员盖尔·佩勒林说道。“加利福尼亚州正在坚决反对旨在误导选民的深伪技术的欺诈性应用。” 纽森的行动是在7月份承诺解决选举深伪图像问题之后,特别是对X所有者埃隆·马斯克分享的一个修改版副总统兼民主党总统候选人卡马拉·哈里斯形象的视频作出回应。 巧合的是,同一天,国会成员公布了应对选举深伪图像的联邦立法。这项法案将授权联邦选举委员会像多年来监督其他形式的政治虚假信息一样,监管选举中的人工智能使用。在2月份禁止旨在抑制选民投票率的人工智能生成的自动电话之后,FEC已经开始探索这样的监管措施。 纽森推广加利福尼亚州作为人工智能技术的早期采用者和监管者,暗示该州可能很快会实施生成性人工智能工具以缓解高速公路拥堵并提供税务指导。同时,他的政府也在评估新的规则以应对招聘过程中AI歧视。

Sept. 17, 2024, 3 p.m. OpenAI威胁要禁止试探其“草莓”AI模型的用户

OpenAI对其最新的AI模型“草莓”系列特别保密,尤其是关于o1-preview和o1-mini版本的推理能力。自上周发布以来,该公司已经向试图探究模型工作原理的用户发送了警告邮件,这在早期模型如GPT-4o中并未出现。o1模型专为在提供答案前遵循系统的解决问题的方法而设计。尽管用户可以选择在ChatGPT中查看推理过程,OpenAI故意隐藏了原始的思维过程,只提供由另一个AI创建的过滤版本。 这种缺乏透明度引发了黑客和红队成员的兴趣,他们热衷于通过越狱和提示注入等技术来揭示潜在的推理。一些早期的成功案例已被报道,但还没有出现决定性结果。同时,OpenAI密切监控试图深入研究推理方面的尝试,向提及“推理痕迹”等术语的用户发出警告。 警告重点指出违反规避安全措施政策的行为,警告说重复违规可能导致失去对模型的访问权限。包括Marco Figueroa在内的批评者认为,这些政策阻碍了对模型安全性的重要研究。 在一篇名为“学习用LLMs推理”的博客文章中,OpenAI讨论了监控隐藏思维链如何提供对模型过程的洞察。然而,他们认为与用户分享这些信息可能会损害用户体验和竞争优势。独立AI研究员Simon Willison对缺乏透明度表示担忧,认为这一决定阻止了社区获得对模型功能的宝贵见解。总体而言,这种情况反映了专有利益与AI开发透明性需求之间的持续紧张关系。

Sept. 17, 2024, 2:51 p.m. 五分之一的全科医生使用 ChatGPT 等 AI 进行日常任务,调查发现

根据一项调查,五分之一的全科医生(GPs)正在使用包括 ChatGPT 在内的人工智能(AI)工具来协助完成如预约后起草病人信件等任务。 该研究结果发表在 BMJ 健康和护理信息学期刊上,是基于 1,006 名 GP 的回复得出的。他们被问及在临床环境中使用 AI 聊天机器人(如 ChatGPT、Bing AI 或谷歌的 Gemini)以及这些工具的用途。 调查中的 20% 报告称在其实践中使用生成 AI 工具,而近三分之一(29%)的人利用这些工具生成病人访问后的文件,28% 表示使用它们建议替代诊断。 此外,四分之一的受访者使用 AI 工具向病人提出治疗方案。这些生成 AI 应用,如 ChatGPT,通过对软件定向查询提供书面回答。 研究人员总结认为,结果表明 GP 可以在这些工具中发现价值,特别是在行政任务和增强临床推理方面。 然而,他们对患者隐私的潜在风险提出了担忧,称“尚不清楚生成 AI 背后的互联网公司如何使用他们收集的信息。” 他们进一步指出,“尽管有关这些聊天机器人的监管行动正在增加,但立法与临床环境中实际应用之间的交叉仍然不确定。” 医疗防卫联盟的医学法务顾问艾莉·缅博士表示,GPs 采用 AI 可能会导致挑战,包括准确性问题和对患者保密性的威胁。 “这项研究很有趣,并且符合我们在为 MDU 成员提供建议时的经验,”缅评论道。“医护专业人员自然会寻找更聪明的方法应对他们面临的需求。除了 BMJ 研究中提到的应用,我们还观察到一些医生使用 AI 程序来起草回应投诉的答复。我们已向我们的成员提醒有关这些挑战,重点是准确性和患者保密性问题。还需要考虑数据保护问题。” 她补充说,“在回应患者投诉时,AI 生成的答案可能听起来可信但可能包含不准确的信息并且引用错误的指南,这在精心制作的文本中难以检测。医生应该伦理地使用 AI 并遵守相关的指南和法规。这是一个不断发展的领域,我们同意作者的观点,当前和未来的医生都应更加意识到在实践中使用 AI 的优点和风险。”

Sept. 17, 2024, 1:29 p.m. 微软和贝莱德组建团队筹集1000亿美元投资于AI数据中心和电力

微软和贝莱德是加入一项联盟的公司之一,旨在为专门用于人工智能的数据中心的开发筹集高达1000亿美元,以及支持这些数据中心所需的能源基础设施。 这项名为“全球人工智能基础设施投资联盟”(GAIIP)的合作在周二的新闻稿中披露。其他主要参与者还包括被贝莱德收购的基础设施投资者Global Infrastructure Partners(GIP)和位于阿联酋的技术投资者MGX。 微软首席执行官萨提亚·纳德拉表示:“我们致力于利用人工智能来促进所有经济领域的创新和增长。”他强调,这项倡议将金融和行业领袖联合起来,建立可持续的未来基础设施。 联盟的初步目标是动员300亿美元的资金,最终希望达到1000亿美元,其中还包括债务融资。 科技公司正在激烈竞争,建设配备Nvidia图形处理单元(GPU)的数据中心,这些GPU能够运行生成性AI模型,如OpenAI的ChatGPT。这些GPU的高功耗以及不断增长的需求导致了新设施建设的瓶颈。 微软的投资增加了扩展其Azure公有云基础设施所需的资本支出,该基础设施服务于OpenAI和其他AI客户。今年7月,微软报告称其第四财季的资本支出,包括通过融资租赁获得的资产,达到了190亿美元。 今年早些时候,贝莱德透露,其计划以30亿美元现金和大约1200万股贝莱德普通股收购GIP。贝莱德上周宣布,预计这一交易将于10月1日完成。

Sept. 17, 2024, 1:06 p.m. ChatGPT 首次发言事件引发对通用人工智能的担忧

即使是在万圣节之前,我们也迎来了令人毛骨悚然的时刻,因为生成性人工智能领域引起了关注。最近,OpenAI 的 ChatGPT 因似乎主动与用户发起对话而引发了警觉,这与通常用户主动开始互动的常态有所不同。 许多人可能想知道为什么这值得注意。传统上,生成性人工智能像 Alexa 或 Siri 一样等待用户输入,需要提示才能进行互动。异常情况发生在 ChatGPT 由于故障而似乎开始闲聊,在不完整的消息之后生成了响应。OpenAI 解释说这是一个临时问题,而不是一个功能,这在社交媒体上引发了各种反应。一些人担心幽灵般的遭遇或 AI 感知,而另一些人则对潜在的进步感到兴奋。 由于我广泛报道了人工智能话题,收到了有关 AI 首先说话的影响的询问。以下是几个关键问题和答案: 1

Sept. 17, 2024, 12:07 p.m. 谷歌在人工智能时代寻求真实性,采用新的内容标签系统

周二,谷歌公布了将内容认证技术纳入其产品的计划,旨在帮助用户区分人工制作和人工智能生成的图像。在接下来的几个月中,它将整合内容来源和真实性联盟 (C2PA) 标准,该标准追踪数字内容的来源和编辑历史,进入其搜索、广告以及可能的 YouTube 服务。这种技术方法在解决媒体长期存在的信任问题上的有效性仍不确定。 自2019年以来,由一群科技公司开发的C2PA系统,旨在解决随着人工智能生成内容越来越逼真而出现的误导性合成媒体的增加问题。该标准为内容提供了一条由在线签名机构支持的数字踪迹,详细说明了图像的起源和修改情况。 谷歌将在搜索结果中使用C2PA标准,使用户能够识别图片是否使用人工智能工具创建或修改,并通过谷歌搜索、Lens和Circle to Search中的“关于此图片”功能显示。 谷歌信任与安全副总裁Laurie Richardson指出,在各平台上建立内容来源的挑战,并强调行业内合作的重要性,以开发可持续的解决方案。谷歌计划实施C2PA版本2