先进的AI模型在实验室故障排查中优于病毒学家,具有生物安全的影响
Brief news summary
由麻省理工学院媒体实验室、UFABC、SecureBio 和 AI 安全中心合作进行的一项最新研究发现,像 OpenAI 的 o3 和谷歌的 Gemini 2.5 Pro 这样的先进人工智能模型在实际实验室排查中已超过博士级病毒学家,o3 的准确率达到43.8%,而专家仅为22.1%。这凸显了人工智能在加快疾病研究、药物发现和病毒检测方面日益增长的作用。然而,将详细的病毒学知识融入人工智能系统也带来了生物安全风险,因为此类技术可能被利用来制造有害的生物制剂。对此,OpenAI 和 xAI 等机构已采取措施,限制访问权限并监控滥用情况。专家们呼吁行业实行更严格的合规和监管措施,包括门禁控制、强制风险评估,以及 AI 开发者、病毒学家、生物安全专家与政策制定者之间的持续合作。这项研究强调了负责任的人工智能发展对于平衡创新与公共健康和安全的重要性。近期由麻省理工学院媒体实验室、巴西联邦天主教大学(UFABC)、AI安全中心以及SecureBio共同开展的一项突破性研究展示了先进AI模型在病毒学领域的卓越能力。研究表明,像OpenAI的o3和谷歌的Gemini 2. 5 Pro这类最先进的AI系统,在实际实验室故障排查任务中,显著优于具有丰富经验的博士级病毒学专家。这一突破或许能加速科学研究,但也引发了严重的生物安全担忧。 该研究评估了这些AI模型诊断和解决病毒学中复杂实验室问题的能力——这些任务通常需要细腻的解读和实际操作经验,而这些经验在纯学术文献中较为罕见。OpenAI的o3达到43. 8%的准确率,几乎是人类专家22. 1%的性能的两倍,而谷歌的Gemini 2. 5 Pro也表现出优越的问题解决能力。这些结果不仅反映了自然语言处理和机器学习的进步,还体现了在AI架构中融入实战学习的创新。 其影响深远。超智能AI有望革新疾病研究、加快药物开发速度、提升病毒检测能力,通过模拟和排查实验室场景,潜在地挽救无数生命。然而,也存在风险,即嵌入AI的详细病毒学实践知识可能被未经培训或恶意行为者利用,制造有害生物制剂或生物武器,从而降低生产危险病原体的门槛。 对此,像xAI和OpenAI等公司已采取生物危害安全措施,限制敏感功能访问并监控滥用行为。然而,也有部分AI开发者行动不够积极,引发了关于制定全面监管框架的呼声。专家们倡导加强行业自我规范,与政府监管相结合,建议设置受控访问协议,将完整的AI能力限制在经过验证的用户范围内,并强制进行预发布评估,以识别生物危害风险。 研究强调,AI研究人员、病毒学家、生物安全专家和政策制定者应持续合作,建立道德标准和最佳实践。持续的监控、透明的报告以及灵活的政策调整,对于在发挥AI强大潜力的同时保障公共安全至关重要。随着AI的快速发展,维护负责任的开发文化和审慎的监管措施,是充分利用其潜力而不危及健康与伦理的关键所在。 总之,这些领先机构的研究成果标志着AI与病毒学的一个里程碑。它们强调了保持警惕与合作的必要性,以确保AI技术造福人类,同时最小化滥用风险。加强安全措施、政策调控和合作框架,是应对AI时代生物安全挑战的关键措施。
Watch video about
先进的AI模型在实验室故障排查中优于病毒学家,具有生物安全的影响
Try our premium solution and start getting clients — at no cost to you