微软在Azure Foundry推出AI安全评级指标,确保道德AI部署
Brief news summary
微软在其Azure Foundry平台上增强AI安全性,推出了一项新的“安全”评估指标,用以评估AI模型中的仇恨言论和滥用风险。该指标结合了微软的ToxiGen基准,该基准能够检测有毒和仇恨性语言,以及人工智能安全中心的“大规模武器”代理基准,后者用于评价潜在的AI滥用行为。通过整合这些工具,微软向开发者提供透明的安全状况概览,以促进负责任的AI部署并建立用户信任。这一举措体现了微软致力于打造一个道德、中立的平台,支持多样化的AI模型,包括由OpenAI提供的模型,微软投入了140亿美元进行支持。在对AI滥用日益担忧的背景下,微软在创新的同时坚守严苛的道德标准,彰显其在AI治理方面的领导地位。新的评估指标促进问责和透明,为用户做出明智决策提供帮助,并在当今快速发展的技术环境中推动可信赖AI的普及。微软通过引入一项新的“安全”评级指标,在Azure Foundry开发者平台上推动人工智能安全,该指标旨在评估AI模型潜在的风险,如生成仇恨言论或被用于滥用。此评级旨在通过透明评估各种AI模型的安全特性,建立客户信任。这些排名将基于两个关键基准:微软的ToxiGen基准,用于检测有毒语言和仇恨言论;以及人工智能安全中心的“ WMD代理”基准,评估与有害滥用相关的风险。这些工具确保生成式AI技术的伦理和安全部署。 通过整合这些严格的评估,微软为开发者和组织提供了关于他们可能整合到应用程序和服务中的AI模型安全性的清晰见解。此举符合微软在不断发展的生成式AI领域中,作为中立且负责任的平台提供者的整体战略。微软不仅依赖单一来源,而是计划提供来自多个提供商的模型,包括其投资了140亿美元的OpenAI,从而创建一个多元化的生态系统,既促进创新,又保持高安全和伦理标准。 该安全指标的推出正值对AI滥用的担忧日益增加,包括有害内容生成、虚假信息和恶意应用。微软的做法直接应对这些挑战,采用可衡量的安全标准指导负责任的AI使用。ToxiGen和“ WMD代理”基准的结合,提供了全面的风险评估,涵盖了有害语言和不道德滥用的可能性。 通过Azure Foundry,开发者将获得详细的安全得分,从而做出更明智的模型选择,并促使透明度提升,增强AI用户和利益相关方的信任。微软作为托管多个AI提供商的平台,彰显其对多样性和中立性的承诺,鼓励竞争和创新,同时防止市场由单一实体垄断。多样性不仅关注性能,也强调安全和伦理。 微软与OpenAI的紧密合作彰显了其对生成式AI变革潜力的信念,而广泛的提供商生态系统旨在创造一个充满活力、负责任的AI市场。安全评级指标在设定明确的安全期望和责任方面起着基础性作用。 该举措还与全球行业和监管机构的责任治理努力相契合。当政府和组织制定防止AI相关危害的框架时,微软正将自己定位为制定最佳实践、确保AI安全部署的领导者。在AI技术快速发展的背景下,强化安全措施变得尤为必要。 总的来说,微软在Azure Foundry推出的这项全新安全评级指标,展现了其主动、前瞻性的AI治理策略。通过利用既定的基准评估仇恨言论、滥用和有害输出的风险,微软致力于营造负责任的AI开发和部署环境。这一举措不仅提升了客户信任,也巩固了微软作为中立、伦理的AI平台提供商在快速变化的科技格局中的地位。
Watch video about
微软在Azure Foundry推出AI安全评级指标,确保道德AI部署
Try our premium solution and start getting clients — at no cost to you