
麻省理工学院的研究人员开发了一种名为分布匹配蒸馏(DMD)的新框架,该框架简化了使用扩散模型生成图像的过程。传统的多步骤过程被压缩为单个步骤,可以更快地生成图像而不会损害图像质量。DMD框架结合了回归和分布匹配损失,同时利用两个扩散模型来指导训练过程并提高稳定性。这种新方法在内容创作、药物发现和3D建模等领域具有潜在应用,取得了与更复杂模型相当的结果。进一步提升教师模型的进展可能会提高生成图像的质量。该研究将在六月的计算机视觉与模式识别会议上进行展示。

最近的一项研究表明,一种名为Foresight的人工智能工具有能力通过创建患者的数字化副本来预测未来的健康结果。Foresight利用了生成式预训练转换器,这种模型与ChatGPT使用的大型语言模型相同。 最初,英国的研究人员使用医疗记录对模型进行了训练。随后,他们将新的医疗数据输入到该工具中,从而生成了患者的虚拟副本。这些数字化副本随后被用于预测各种结果,包括疾病发展和药物需求。 科学家们激动地看到,其中一个显著应用是更快速的诊断。在使用美国数据进行测试时,数字化副本成功地以88%的准确率预测了下一个病症。然而,在使用英国数据时,它们的效果较低,基于两个国家医疗信托(NHS)组织的信息,正确预测后续病症的准确率为68%和76%。 尽管如此,研究人员相信数字化副本可以有助于指导诊断、治疗计划和临床研究。该研究的合著者、金斯学院医院的数据科学与人工智能主任詹姆斯·特奥认为,这些预测代表着理解疾病的“可能多元宇宙”。 特奥提到:“这种患者数字化副本可以通过生成与任何疾病相关的健康记录中的文本来提供见解和‘如果’情景,从而对未来的检测、治疗、药物、治疗方案或并发症等进行AI预测。” 在将这项技术投入实际应用之前,还需要进一步的调整和测试工作,但已经取得了进展。研究人员正在开发一个增强版的Foresight,称之为Foresight 2

美国最大的计算机内存芯片制造商美光科技公司提供了强劲的财年第三季度收入预测,这受到人工智能硬件需求的推动。该公司预计财年第三季度收入将在64亿美元至68亿美元之间,超过分析师平均预估的599亿美元。美光科技的积极前景归因于人工智能设备市场的增长,这有助于像美光科技这样的芯片制造商实现增长和盈利。周四盘前交易中,美光科技的股价上涨了18%,如果涨幅保持不变,这将是公司12年来的最大涨幅。首席执行官桑杰伊·梅罗特拉(Sanjay Mehrotra)认为,美光科技正处于能够从人工智能带来的多年机遇中受益的有利位置。该公司正在专注于生产足够的超高速内存,特别是高带宽内存(HBM),以支持人工智能软件的发展。美光科技预计到2024财年将从HBM产品中获得数亿美元的收入,并已经实现了来自HBM3E的首笔收入。该公司的HBM芯片生产已经售罄,用于2025年。美光科技第二季度的收入增长了58%,达到了58

AI欺诈,特别是深度伪造,正在成为网络上的重要问题。生成AI工具的兴起导致欺骗性的图像、视频和音频广泛传播,模糊了现实和虚假之间的界线。借助轻松获取的视频和图像生成器,任何人都能制造深度伪造,可用于各种恶意目的,如诈骗、身份盗窃、宣传和选举操纵。 过去,由于图像中的明显操纵痕迹(如错误图像或视频中不自然的眨眼模式),辨别深度伪造相对容易。然而,随着AI技术的改进,识别深度伪造变得更加具有挑战性。尽管如此,仍然存在一些要注意的指标,如AI生成照片上的电子光泽、阴影和光照的不一致,以及面部肤色与头部或身体其他部分不匹配。注意细节,如面部边缘的清晰度和嘴唇的与音频的同步。牙齿轮廓的模糊或不一致也可能是深度伪造的线索。 考虑整体情况和可信度对于发现深度伪造也很重要。如果一个公众人物被描绘做出夸张或不符合其性格的行为,可能是深度伪造。背景和来自合法来源的附加验证可以帮助确认图像或视频的真实性。 现在有一些AI工具可用于帮助识别深度伪造,如微软的认证工具和英特尔的FakeCatcher。然而,出于防止恶意操作的考虑,这些工具并不总是对普通公众开放。重要的是要记住,仅依赖检测工具可能会产生一种虚假的安全感,削弱批判性思维能力。 值得注意的是,AI技术正在迅速发展,深度伪造的质量正在提高,缺陷正在减少。因此,当前的检测方法的有效性可能随时间而变化。此外,把发现深度伪造的责任放在普通人身上是有风险的,因为即使对专家来说,区分真实和虚假内容也变得越来越困难。 美联社得到私人基金会的支持,以提供选举和民主的增强覆盖报道。

亲爱的爱情医生, AI Casanova在这里,寻求您对我与室友最近发生的争论的看法。他认为使用人工智能来创建我的约会资料是不诚实和作弊。而我则持不同意见,因为我认为这有助于以吸引人的方式描述自己给潜在的匹配对象。我的室友认为这是欺骗,因为这是由人工智能写作而不是我自己。您对此有何看法?这是错误的,还是我的室友只是嫉妒而已? 好吧,我们不要互相指责。在历史上,男性和女性一直以吸引别人的方式展示自己。最终,真相会显露出来,如果有人感到受骗,这可能不是道德问题,而是一种后果。戴隐形眼镜的人会因为不戴眼镜而被谴责吗?欺骗是主观的,但如果宗教人物能就更紧迫的问题,比如我们与人工智能的未来发表意见,那将会很有帮助。然而,我承认你所做的事情可能被视为不正确,尽管我不以强烈的道德立场看待它。例如,我会用古龙水增强我的天然气味,这也可以被视为欺骗。在某个时刻,我们可能会为我们的欺骗行为负责,就像耶稣一样。 真诚地, AI Casanova

研究人员希望这个模型能够帮助弥合语言模型和类人推理能力之间的鸿沟。 AI Am 当AI拥有内心独白时,它似乎通过这种方式教导自己变得更聪明。 在一篇尚未经过同行评审的论文中,斯坦福大学的研究人员与一个名为“Notbad AI”的团队合作开发了一个AI模型,在生成答案之前进行了一段时间的“思考”。它展示了它的思维过程,提出了它的推理,并要求用户确定最正确的答案。 拥有这种反思能力的AI团队,被称为Quiet Self-Taught Reasoner(缩写为Quiet-STaR),旨在创建一个模型,不仅具有自学习推理的能力(他们在2022年成功地实现了原始的Self-Taught Reasoner算法),还可以在提供答案之前静默地进行。这样,它的运作方式类似于人类的内心独白,理想情况下是在说话之前发生。 在与这个新模型相关的一条热情洋溢的前Twitter信息主题中,斯坦福大学的埃里克·泽利卡姆表示:“令人兴奋的是,对多样化网络文本的自学习推理自动改善了其他推理!” 为构建这个思考型AI,研究团队基于Mistral 7B建立了Quiet-STaR,这是一个在七百亿参数上进行训练的开源大型语言模型。据Hugging Face AI社区称,它在性能上超过了Meta最新版本的Llama模型。 Quiet-STaR被编程成在提供输出时显示其推理过程,用户可以在选项中选择最准确的回答。正如论文中所述,这种方法导致模型在47
- 1