lang icon German
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 7, 2025, 2:16 p.m.
2

Microsoft führt KI-Sicherheitsbewertungsmetrik auf Azure Foundry ein, um eine ethische KI-Einführung zu gewährleisten

Microsoft treibt die Sicherheit von KI auf seiner Entwicklerplattform Azure Foundry voran, indem es eine neue Bewertungsmetrik namens „Sicherheitsrang“ einführt, um KI-Modelle auf potenzielle Risiken zu überprüfen, etwa die Erzeugung von Hassrede oder Missbrauchsmöglichkeiten. Ziel dieser Metrik ist es, das Vertrauen der Kunden durch transparente Beurteilung der Sicherheitsprofile verschiedener KI-Modelle zu stärken. Die Rankings basieren auf zwei wesentlichen Benchmarks: Microsofts ToxiGen-Benchmark, der toxische Sprache und Hassrede erkennt, und dem „Weapons of Mass Destruction Proxy“-Benchmark des Center for AI Safety, der Risiken im Zusammenhang mit schädlichem Missbrauch bewertet. Diese Werkzeuge gewährleisten eine ethische und sichere Umsetzung generativer KI-Technologien. Durch die Integration dieser strengen Bewertungen bietet Microsoft Entwicklern und Organisationen klare Einblicke in die Sicherheit der KI-Modelle, die in Anwendungen und Dienste integriert werden könnten. Diese Initiative steht im Einklang mit Microsofts übergeordneter Strategie, in der sich das Unternehmen als neutraler und verantwortungsvoller Plattformanbieter im sich entwickelnden Bereich der generativen KI positioniert. Anstatt sich auf eine einzelne Quelle zu beschränken, plant Microsoft, Modelle von mehreren Anbietern anzubieten – einschließlich OpenAI, an das es 14 Milliarden Dollar investiert hat – und so ein vielfältiges Ökosystem zu schaffen, das Innovation fördert und gleichzeitig hohe Sicherheits- und Ethikstandards wahrt. Die Sicherheitsmetrik erscheint inmitten wachsender Bedenken bezüglich des Missbrauchs von KI, etwa der Erzeugung schädlicher Inhalte, Desinformation und böswilliger Anwendungen. Microsofts Ansatz adressiert diese Herausforderungen direkt, indem messbare Sicherheitsstandards umgesetzt werden, die für einen verantwortungsvollen KI-Einsatz leiten. Die Kombination aus ToxiGen und den „Weapons of Mass Destruction Proxy“-Benchmarks bietet eine umfassende Risikobewertung, die sowohl schädliche Sprache als auch Möglichkeiten des unethischen Missbrauchs abdeckt. Über Azure Foundry erhalten Entwickler detaillierte Sicherheitsbewertungen, die eine informierte Auswahl von Modellen ermöglichen und für Transparenz sorgen, was das Vertrauen bei KI-Nutzern und Stakeholdern erhöht.

Microsofts Rolle als Plattform, die mehrere KI-Anbieter beherbergt, unterstreicht sein Engagement für Vielfalt und Neutralität, fördert den Wettbewerb und die Innovation, während es eine Marktdominanz eines einzelnen Anbieters verhindert. Diese Vielfalt soll nicht nur Leistung, sondern auch Sicherheit und Ethik in den Vordergrund stellen. Die enge Partnerschaft Microsofts mit OpenAI betont den Glauben an das transformativen Potenzial generativer KI, und das breite Anbieter-Ökosystem zielt darauf ab, einen lebendigen, verantwortungsvollen KI-Marktplatz zu schaffen. Die Sicherheitsrang-Metrik ist grundlegend, um klare Sicherheitsstandards und Verantwortlichkeiten für KI-Modelle festzulegen. Dieses Vorhaben steht auch im Einklang mit globalen Branchen- und Regulierungsansätzen, um KI verantwortungsvoll zu steuern. Während Regierungen und Organisationen Rahmenwerke zur Verhinderung von KI-bedingten Schäden entwickeln, positioniert sich Microsoft als Vorreiter bei der Festlegung bewährter Praktiken für den sicheren Einsatz von KI. Angesichts des rasanten Fortschritts in der KI-Technologie sind robuste Sicherheitsmaßnahmen zunehmend unerlässlich. Zusammenfassend zeigt Microsofts neue Sicherheitsrang-Metrik auf Azure Foundry einen proaktiven und zukunftsorientierten Ansatz in der KI-Governance. Durch die Nutzung bewährter Benchmarks zur Bewertung von Risiken im Zusammenhang mit Hassrede, Missbrauch und schädlichen Ausgaben schafft Microsoft ein Umfeld für verantwortungsvolle Entwicklung und Einsatz von KI. Dieser Schritt stärkt das Vertrauen der Kunden und festigt Microsofts Position als neutraler, ethischer KI-Plattformanbieter in einer sich schnell wandelnden technologischen Landschaft.



Brief news summary

Microsoft verbessert die Sicherheit künstlicher Intelligenz auf seiner Azure Foundry-Plattform, indem es eine neue "Sicherheits"-Bewertungsmetrik einführt, um Risiken wie Hassrede und Missbrauch in KI-Modellen zu bewerten. Diese Metrik kombiniert Microsofts ToxiGen-Benchmark, der hasserfüllte und toxische Sprache erkennt, mit dem Weapons of Mass Destruction Proxy-Benchmark des Center for AI Safety, der potenziellen KI-Missbrauch evaluiert. Durch die Integration dieser Tools bietet Microsoft Entwicklern transparente Sicherheitsprofile, um eine verantwortungsvolle KI-Einführung zu fördern und das Vertrauen der Nutzer zu stärken. Dieses Engagement spiegelt Microsofts Verpflichtung wider, eine ethische, neutrale Plattform zu betreiben, die vielfältige KI-Modelle beherbergt, darunter auch solche von OpenAI, unterstützt durch eine Investition von 14 Milliarden Dollar. Angesichts zunehmender Bedenken hinsichtlich des KI-Missbrauchs balanciert Microsoft Innovation mit strengen ethischen Standards und positioniert sich als Vorreiter im Bereich KI-Governance. Die neue Metrik fördert Verantwortlichkeit und Transparenz, unterstützt Nutzer bei fundierten Entscheidungen und ermutigt zu vertrauenswürdiger KI-Implementierung in der heutigen schnelllebigen technologischen Landschaft.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 7, 2025, 2:32 p.m.

Paul Brody, EY: Wie Blockchain den globalen Hande…

Paul Brody, Leiter für Blockchain bei EY und Co-Autor des Buches *Ethereum for Business* aus dem Jahr 2023, diskutiert mit Global Finance die Auswirkungen von Blockchain auf Zahlungen, Überweisungen, Bankwesen und Unternehmensfinanzierung.

June 7, 2025, 10:22 a.m.

Blockchain Group fügt der Unternehmensreserve 68 …

Das in Paris ansässige Kryptowährungsunternehmen Blockchain Group hat Bitcoin im Wert von 68 Millionen US-Dollar gekauft und schließt sich einer wachsenden Zahl europäischer Institutionen an, die BTC in ihre Bilanzen integrieren.

June 7, 2025, 10:17 a.m.

Senatsrepublicaner überarbeiten Verbot der KI-Reg…

Die republikanischen Senatoren haben eine umstrittene Bestimmung in ihrem umfangreichen Steuerrecht überarbeitet, um eine Politik aufrechtzuerhalten, die die Befugnisse der Bundesstaaten bei der Regulierung künstlicher Intelligenz (KI) einschränkt.

June 7, 2025, 6:24 a.m.

KI-Filmfestival hebt die wachsende Rolle der KI i…

Das AI-Filmfestival, veranstaltet vom KI-generierten Videounternehmen Runway, kehrt zum dritten Mal in Folge nach New York zurück und hebt die rasch wachsende Rolle der künstlichen Intelligenz im Filmwesen hervor.

June 7, 2025, 6:16 a.m.

ZK-Proof-Blockchain-Altcoin Lagrange (LA) startet…

Ein Zero-Knowledge (ZK)-Proof-Altcoin hat nach der Unterstützung durch Coinbase, der führenden US-amerikanischen Kryptowährungsbörse, eine signifikante Steigerung erlebt.

June 6, 2025, 2:25 p.m.

Blockchain- und Digital Assets Virtuelle Investor…

NEW YORK, 06.

June 6, 2025, 2:17 p.m.

Rechtsanwälte drohen Sanktionen wegen der Berufun…

Eine hochrangige britische Richterin, Victoria Sharp, hat eine deutliche Warnung an Juristen ausgesprochen bezüglich der Gefahren bei der Nutzung von KI-Tools wie ChatGPT, um erfundene Rechtshandlungen zu zitieren.

All news