lang icon Russian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 7, 2025, 2:16 p.m.
3

Microsoft представила метрику рейтинга безопасности ИИ на Azure Foundry для обеспечения этичного внедрения искусственного интеллекта

Microsoft совершенствует безопасность искусственного интеллекта на своей платформе Azure Foundry, вводя новую метрику «безопасности» для оценки моделей ИИ с точки зрения потенциальных рисков, таких как порождение речи ненависти или возможность злоупотреблений. Эта метрика направлена на укрепление доверия клиентов за счет прозрачной оценки характеристик безопасности различных моделей ИИ. Рейтинги будут базироваться на двух ключевых эталонах: эталоне ToxiGen от Microsoft, выявляющем токсичный язык и речь ненависти, и эталоне Proxy для «Оружия массового уничтожения» от Центра безопасности ИИ, оценивающем риски, связанные с вредоносным злоупотреблением. Эти инструменты обеспечивают этичное и безопасное внедрение технологий генеративного ИИ. Благодаря интеграции таких строгих оценок, Microsoft предоставляет разработчикам и организациям ясное представление о безопасности моделей ИИ, которые они могут интегрировать в свои приложения и сервисы. Эта инициатива соответствует более широкой стратегии Microsoft стать нейтральной и ответственной платформой в развивающемся пространстве генеративного ИИ. Вместо ограничений одним источником, Microsoft планирует предлагать модели от нескольких провайдеров, включая OpenAI, в инвестициях в которую было вложено 14 миллиардов долларов, создавая разнообразную экосистему, стимулирующую инновации при соблюдении высоких стандартов безопасности и этики. Появление этой метрики безопасности связано с растущими опасениями по поводу злоупотреблений ИИ, таких как создание вредоносного контента, распространение дезинформации и злонамеренные приложения. Подход Microsoft напрямую адресует эти вызовы, внедряя измеряемые стандарты безопасности для ответственного использования ИИ. Комбинация эталонов ToxiGen и Proxy для оружия массового уничтожения позволяет провести комплексную оценку рисков, охватывающую как вредоносный язык, так и возможности этически опасного злоупотребления. Через Azure Foundry разработчики смогут получать подробные оценки безопасности, что позволит им делать информированный выбор моделей и повышать прозрачность, укрепляющую доверие среди пользователей и заинтересованных сторон.

Роль Microsoft как платформы, поддерживающей нескольких поставщиков ИИ, подчеркивает ее приверженность разнообразию и нейтралитету, стимулируя конкуренцию и инновации при одновременной защите рынка от доминирования одной компании. Такое разнообразие направлено не только на максимальную производительность, но и на приоритет безопасности и этичности. Крепкое партнерство Microsoft с OpenAI отражает ее веру в трансформирующий потенциал генеративного ИИ, а создание экосистемы поставщиков стимулирует развитие активного и ответственного рынка ИИ. Метрика ранжирования по безопасности является фундаментальным инструментом для установления четких стандартов безопасности и ответственности за модели ИИ. Данная инициатива также согласуется с глобальными отраслевыми и нормативными инициативами по ответственному управлению ИИ. По мере разработки правовых рамок для предотвращения вредных последствий от использования ИИ, Microsoft занимает позицию лидера в определении лучших практик безопасного внедрения технологий. В условиях быстрого развития ИИ-продуктов все более важными становятся надежные меры безопасности. В целом, новая метрика оценки безопасности Microsoft в Azure Foundry демонстрирует проактивный и прогрессивный подход к управлению ИИ. Используя проверенные эталоны для оценки рисков, связанных с речью ненависти, злоупотреблениями и вредоносными результатами, Microsoft создает среду для ответственного развития и внедрения ИИ. Этот шаг укрепляет доверие клиентов и закрепляет статус Microsoft как нейтрального, этического поставщика платформ для ИИ в условиях быстроменяющегося технологического ландшафта.



Brief news summary

Microsoft улучшает безопасность искусственного интеллекта на своей платформе Azure Foundry, вводя новую метрику рейтинга «безопасности» для оценки рисков, таких как речь ненависти и злоупотребления в моделях ИИ. Эта метрика объединяет тестовый набор ToxiGen от Microsoft, который выявляет токсичный и ненавистнический язык, с бенчмарком Центра безопасности ИИ Weapons of Mass Destruction Proxy, оценивающим возможное злоупотребление ИИ. Интегрируя эти инструменты, Microsoft предоставляет разработчикам прозрачные профили безопасности для продвижения ответственного внедрения ИИ и укрепления доверия пользователей. Эта инициатива отражает приверженность Microsoft этической и нейтральной платформе, на которой размещены разнообразные модели ИИ, включая те, что от OpenAI, при поддержке инвестиций в 14 миллиардов долларов. В условиях возрастания опасений по поводу злоупотреблений ИИ, Microsoft сочетают инновации с высокими этическими стандартами, позиционируя себя как лидера в области управления ИИ. Новая метрика способствует ответственности и прозрачности, помогая пользователям принимать информированные решения и поощряя доверительное использование ИИ в стремительно развивающемся технологическом пространстве.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 7, 2025, 2:32 p.m.

Поль Броуди, EY: Как блокчейн трансформирует миро…

Пол Броуди, мировой лидер по блокчейну в EY и со автор книги 2023 года *Ethereum for Business*, обсуждает влияние блокчейна на платежи, переводы, банковское дело и корпоративные финансы в журнале Global Finance.

June 7, 2025, 10:22 a.m.

Blockchain Group добавила 68 миллионов долларов в…

Криптовалютная компания Blockchain Group, базирующаяся в Париже, приобрела Bitcoin на сумму 68 миллионов долларов, присоединяясь к растущему количеству европейских институтов, включающих BTC в свои балансовые отчеты.

June 7, 2025, 10:17 a.m.

Республиканцы в Сенате пересмотрели запрет на рег…

Сенатские республиканцы пересмотрели спорную статью в их обширном налоговом законе, чтобы сохранить политику, ограничивающую полномочия штатов в регулировании искусственного интеллекта (ИИ).

June 7, 2025, 6:24 a.m.

Фестиваль ИИ в кино: основные моменты и растущая …

Фестиваль искусственного интеллекта в кино, организованный компанией Runway, специализирующейся на видео, созданном с помощью ИИ, вернулся в Нью-Йорк уже в третий раз подряд, подчеркивая быстро растущую роль искусственного интеллекта в кинопроизводстве.

June 7, 2025, 6:16 a.m.

ZK-Proof блокчейн-альткоин Lagrange (LA) взлетает…

Альткоин на базе технологий нулевого знания (ZK) внезапно вырос в цене после поддержки со стороны Coinbase — ведущей американской криптовалютной биржи.

June 6, 2025, 2:25 p.m.

Виртуальная конференция по блокчейну и цифровым а…

НЬЮ-ЙОРК, 6 июня 2025 г.

June 6, 2025, 2:17 p.m.

Адвокаты могут столкнуться с санкциями за ссылки …

Верховный судья Великобритании Виктория Шарп выступила с настоятельным предупреждением юристам о опасностях использования таких инструментов искусственного интеллекта, как ChatGPT, для цитирования сфабрикованных юридических дел.

All news