Microsoft představuje na Azure Foundry metriku hodnocení bezpečnosti AI, která zajišťuje etické nasazení AI

Microsoft posiluje bezpečnost AI na své vývojové platformě Azure Foundry zavedením nového hodnotícího ukazatele „bezpečnosti“, který hodnotí AI modely z hlediska možných rizik, jako je generování nenávistného projevu nebo zneužití. Tento ukazatel si klade za cíl budovat důvěru zákazníků prostřednictvím transparentního hodnocení bezpečnostních profilů různých AI modelů. Hodnocení bude založeno na dvou klíčových benchmarkových metodách: Microsoftovém ToxiGen, který detekuje toxický jazyk a nenávistné projevy, a Center for AI Safety’s Weapons of Mass Destruction Proxy, jenž hodnotí rizika spojená s škodlivým zneužitím. Tyto nástroje zajišťují etické a bezpečné nasazení generativních AI technologií. Integrací těchto důsledných hodnocení poskytuje Microsoft vývojářům a organizacím jasné přehledy o bezpečnosti AI modelů, které mohou začlenit do svých aplikací a služeb. Tento krok je v souladu s širší strategií Microsoftu stát se neutrálním a odpovědným poskytovatelem platforem v rozvíjejícím se prostoru generativní AI. Místo toho, aby se soustředil na jediného dodavatele, plánuje Microsoft nabízet modely od různých poskytovatelů – včetně OpenAI, do které investoval 14 miliard dolarů – čímž vytváří rozmanitý ekosystém podporující inovace při zachování vysokých standardů bezpečnosti a etiky. Ukazatel bezpečnosti přichází v době rostoucích obav z zneužívání AI, včetně tvorby škodlivého obsahu, dezinformací a škodlivých aplikací. Microsoftův přístup tyto výzvy řeší přímo zavedením měřitelných bezpečnostních standardů, které mají vést k odpovědnému používání AI. Kombinace ToxiGen a benchmarku Weapons of Mass Destruction Proxy nabízí komplexní posouzení rizik, pokrývající jak škodlivost jazyka, tak možnosti zneužití v neetickém kontextu. Prostřednictvím Azure Foundry budou mít vývojáři přístup ke specifickým skóre bezpečnosti, což jim umožní lépe vybírat modely a podporují transparentnost, čímž posilují důvěru uživatelů a zainteresovaných stran.
Role Microsoftu jako platformy hostující více AI poskytovatelů podtrhuje jeho závazek k rozmanitosti a neutralitě, podporuje konkurenci a inovace a zabrání dominanci jednoho subjektu na trhu. Tato rozmanitost má klást důraz nejen na výkon, ale i na bezpečnost a etiku. Silné partnerství Microsoftu s OpenAI zdůrazňuje jeho víru v transformační potenciál generativní AI a široký ekosystém poskytovatelů má za cíl vytvořit živý, odpovědný trh s AI. Ukazatel hodnocení bezpečnosti je základním kamenem při nastavování jasných očekávání a odpovědnosti za AI modely. Tato iniciativa se rovněž shoduje s globálními průmyslovými a regulačními snahami o odpovědné řízení AI. Jak vlády a organizace vyvíjejí rámce k prevenci škod spojených s AI, Microsoft se staví do čela při stanovování osvědčených postupů pro bezpečné nasazení AI. S rychlým vývojem AI technologií jsou pevná bezpečnostní opatření stále důležitější. Na závěr, nový hodnoticí ukazatel bezpečnosti na Azure Foundry představuje proaktivní a bezpečně směřující přístup k řízení AI. Využitím osvědčených benchmarků k hodnocení rizik spojených s nenávistnými projevy, zneužíváním a škodlivými výstupy, Microsoft vytváří prostředí pro odpovědný rozvoj a zavádění AI. Tento krok zvyšuje důvěru zákazníků a upevňuje postavení Microsoftu jako neutrálního a etického poskytovatele AI platforem v rychle se měnícím technologickém prostředí.
Brief news summary
Microsoft zlepšuje bezpečnost AI na své platformě Azure Foundry zavedením nové hodnotící metriky „bezpečnost“, která posuzuje rizika jako nenávistné projevy a zneužití v AI modelech. Tato metrika kombinuje Microsoftův benchmark ToxiGen, který detekuje toxický a nenávistný jazyk, s benchmarkem Weapons of Mass Destruction Proxy Centra pro bezpečnost AI, jenž hodnotí možné zneužití AI. Integrací těchto nástrojů nabízí Microsoft vývojářům transparentní bezpečnostní profily, jež podporují zodpovědné nasazení AI a budování důvěry uživatelů. Tento krok odráží závazek Microsoftu k etické a neutrální platformě, která hostí různé AI modely, včetně těch od OpenAI, podporovaných investicí ve výši 14 miliard dolarů. Uprostřed narůstajících obav z zneužití AI spojuje Microsoft inovace s pevným etickým standardem a staví se do čela správy AI. Nová metrika podporuje odpovědnost a transparentnost, pomáhá uživatelům činit informovaná rozhodnutí a povzbuzuje důvěryhodné adoptování AI v dnešním rychle se vyvíjejícím technologickém prostředí.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Paul Brody, EY: Jak blockchain mění globální obch…
Paul Brody, globální vedoucí oddělení blockchainu v EY a spoluautor knihy *Ethereum for Business* z roku 2023, diskutuje s časopisem Global Finance o dopadu blockchainu na platby, remitence, bankovnictví a firemní finance.

Blockchain Group přidává do firemního pokladního …
Pařížská kryptoměnová společnost Blockchain Group zakoupila Bitcoin v hodnotě 68 milionů dolarů a připojila se tak k rostoucímu počtu evropských institucí, které začleňují BTC do svých bilančních sum.

Senátorští republikáni upravili zákaz regulace um…
Senátoři republikáni upravili kontroverzní ustanovení ve svém rozsáhlém daňovém zákoně, aby zachovali politiku, která omezuje pravomoci států v oblasti regulace umělé inteligence (AI).

Hlavní události festivalu AI film, který ukazuje …
Festival filmu AI, pořádaný společností Runway, která se specializuje na videa generovaná umělou inteligencí, se po třetí za sebou vrátil do New Yorku a opět zdůraznil rychle rostoucí roli umělé inteligence ve filmové tvorbě.

ZK-Proof Blockchain Altcoin Lagrange (LA) vzlétá …
Altcoin založený na důkazu nulové znalosti (ZK) zaznamenal výrazný vzestup poté, co získal podporu od Coinbase, vedlejší americké burzy kryptoměn.

Konference Virtuální investoři: Blockchain a digi…
NEW YORK, 6.

Právníci čelí sankcím za uvádění falešných případ…
Seniorní britský soudkyně Victoria Sharp vydala důrazné varování právním profesionálům ohledně nebezpečí používání AI nástrojů, jako je ChatGPT, k citování uměle vymyšlených právních případů.