Microsoft présente la métrique de classement de la sécurité de l'IA sur Azure Foundry pour garantir un déploiement éthique de l'IA

Microsoft fait progresser la sécurité de l’IA sur sa plateforme de développeur Azure Foundry en introduisant une nouvelle métrique de classement « sécurité » pour évaluer les modèles d’IA en fonction des risques potentiels, tels que la génération de discours haineux ou l’utilisation abusive. Cette métrique vise à renforcer la confiance des clients en évaluant de manière transparente les profils de sécurité de divers modèles d’IA. Les classements seront basés sur deux repères clés : le benchmark ToxiGen de Microsoft, qui détecte le langage toxique et le discours haineux, et le benchmark Proxy d’armes de destruction massive du Centre pour la sécurité de l’IA, qui évalue les risques liés à une utilisation nuisible. Ces outils garantissent un déploiement éthique et sécurisé des technologies d’IA génératives. En intégrant ces évaluations rigoureuses, Microsoft offre aux développeurs et aux organisations une compréhension claire de la sécurité des modèles d’IA qu’ils pourraient intégrer dans leurs applications et services. Cette initiative s’inscrit dans la stratégie globale de Microsoft visant à être un fournisseur de plateforme neutre et responsable dans l’espace en pleine expansion de l’IA générative. Plutôt que de se limiter à une seule source, Microsoft prévoit de proposer des modèles provenant de plusieurs fournisseurs — dont OpenAI, dans lequel elle a investi 14 milliards de dollars — créant ainsi un écosystème diversifié qui favorise l’innovation tout en respectant des normes élevées de sécurité et d’éthique. La métrique de sécurité intervient dans un contexte de préoccupations croissantes concernant l’abus de l’IA, notamment la génération de contenus nuisibles, la désinformation et les applications malveillantes. L’approche de Microsoft répond directement à ces enjeux en mettant en place des normes de sécurité mesurables pour guider l’utilisation responsable de l’IA. La combinaison des benchmarks ToxiGen et Proxy offre une évaluation complète des risques, couvrant à la fois le langage toxique et les possibilités d’utilisation non éthique. Grâce à Azure Foundry, les développeurs auront accès à des scores de sécurité détaillés, leur permettant de faire des choix éclairés parmi les modèles et favorisant la transparence, ce qui renforce la confiance des utilisateurs et des acteurs concernés.
Le rôle de Microsoft en tant que plateforme hébergeant plusieurs fournisseurs d’IA souligne son engagement envers la diversité et la neutralité, encourageant la concurrence et l’innovation tout en empêchant la domination du marché par une seule entité. Cette diversité vise à privilégier non seulement la performance, mais aussi la sécurité et l’éthique. Le partenariat solide de Microsoft avec OpenAI témoigne de sa conviction dans le potentiel transformateur de l’IA générative, et l’écosystème de fournisseurs vise à créer un marché de l’IA dynamique et responsable. La métrique de classement de sécurité constitue une étape essentielle pour établir des attentes claires en matière de sécurité et assurer une responsabilisation des modèles d’IA. Cette initiative s’aligne également sur les efforts mondiaux de l’industrie et des régulateurs pour encadrer l’IA de manière responsable. Alors que gouvernements et organisations élaborent des cadres pour prévenir les risques liés à l’IA, Microsoft se positionne comme un leader dans l’établissement de meilleures pratiques pour un déploiement sécurisé de l’IA. Avec la rapidité du progrès technologique dans ce domaine, la mise en place de mesures de sécurité robustes devient de plus en plus essentielle. En résumé, la nouvelle métrique de classement de sécurité de Microsoft sur Azure Foundry illustre une approche proactive et tournée vers l’avenir en matière de gouvernance de l’IA. En s’appuyant sur des repères établis pour évaluer les risques liés au discours haineux, à l’abus et aux outputs nuisibles, Microsoft favorise un environnement de développement et de déploiement responsable de l’IA. Cette initiative renforce la confiance des clients et consolide la position de Microsoft en tant que fournisseur neutre et éthique de plateformes d’IA dans un paysage technologique en constante évolution.
Brief news summary
Microsoft améliore la sécurité de l'IA sur sa plateforme Azure Foundry en introduisant une nouvelle métrique de « sécurité » pour évaluer les risques tels que les discours haineux et la mauvaise utilisation des IA. Cette métrique combine la référence ToxiGen de Microsoft, qui détecte le langage toxique et haineux, avec la référence Weapons of Mass Destruction Proxy du Center for AI Safety, qui évalue le potentiel de mauvaise utilisation de l'IA. En intégrant ces outils, Microsoft offre aux développeurs des profils de sécurité transparents pour promouvoir un déploiement responsable de l’IA et renforcer la confiance des utilisateurs. Cette initiative témoigne de l’engagement de Microsoft en faveur d’une plateforme éthique et neutre, hébergeant une diversité de modèles d’IA, y compris ceux d’OpenAI, soutenus par un investissement de 14 milliards de dollars. Face à l’augmentation des préoccupations concernant la mauvaise utilisation de l’IA, Microsoft allie innovation et normes éthiques strictes, se positionnant comme un leader en gouvernance de l’IA. La nouvelle métrique favorise la responsabilité et la transparence, aidant les utilisateurs à prendre des décisions éclairées et encourageant l’adoption d'une IA digne de confiance dans le contexte technologique en constante évolution d’aujourd’hui.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Paul Brody, EY : Comment la blockchain transforme…
Paul Brody, responsable mondial de la blockchain chez EY et co-auteur du livre *Ethereum for Business* en 2023, discute de l’impact de la blockchain sur les paiements, les envois de fonds, la banque et la finance d’entreprise avec Global Finance.

Blockchain Group ajoute 68 millions de dollars en…
La société de cryptomonnaie basée à Paris, Blockchain Group, a acheté pour 68 millions de dollars de Bitcoin, rejoignant un nombre croissant d'institutions européennes intégrant le BTC dans leurs bilans.

Les républicains du Sénat modifient l'interdictio…
Les Républicains du Sénat ont modifié une disposition contestée de leur vaste législation fiscale afin de préserver une politique qui limite l’autorité des États sur la régulation de l'intelligence artificielle (IA).

Les temps forts du Festival du Film sur l'IA : l'…
Le Festival de Films IA, organisé par la société de vidéos générées par IA Runway, est revenu à New York pour sa troisième année consécutive, mettant en lumière le rôle en rapide expansion de l'intelligence artificielle dans la réalisation cinématographique.

Crypto-monnaie alternative ZK-Proof Blockchain La…
Une crypto-monnaie alternative basée sur la preuve à divulgation zéro (ZK) a connu une hausse significative après avoir reçu le soutien de Coinbase, la principale plateforme d’échange de cryptomonnaies basée aux États-Unis.

Conférence virtuelle sur la blockchain et les act…
NEW YORK, le 6 juin 2025 (GLOBE NEWSWIRE) — Virtual Investor Conferences, la série de conférences d'investisseurs propriétaire de premier plan, a annoncé aujourd'hui que les présentations de la Conférence virtuelle sur la blockchain et les actifs numériques, organisée le 5 juin, sont désormais disponibles en visualisation en ligne.

Avocats risquent des sanctions pour avoir cité de…
Une magistrate britannique de renom, Victoria Sharp, a lancé une mise en garde ferme aux professionnels du droit concernant les dangers de l’utilisation d’outils d’IA comme ChatGPT pour citer des affaires juridiques fictives.