Microsoft predstavi metriko ocenjevanja varnosti AI na Azure Foundryju za zagotovitev etične uporabe umetne inteligence

Microsoft napreduje na področju varnosti AI na svoji razvojni platformi Azure Foundry z uvedbo nove metrike „varnosti“ za ocenjevanje AI modelov glede potencialnih tveganj, kot so generiranje sovražnega govora ali omogočanje zlorabe. Ta mera si prizadeva povečati zaupanje strank s transparentnim ocenjevanjem varnostnih profilov različnih AI modelov. Ocene bodo temeljile na dveh ključnih standardih: Microsoftovi ToxiGen merili, ki zaznava toksični jezik in sovražni govor, ter Center za AI Safety-jevem WMD Proxy standardu, ki ocenjuje tveganja povezano z zlorabo in škodljivimi nameni. Ti orodji zagotavljata etično in varno implementacijo generativnih AI tehnologij. Z vključitvijo teh strogih ocen Microsoft omogoča razvijalcem in organizacijam jasne vpoglede v varnost AI modelov, ki jih nameravajo integrirati v svoje aplikacije in storitve. Ta pobuda je skladna z širšo strategijo Microsofta, da ostane nevtralen in odgovoren ponudnik platforme v hitro razvijajočem se območju generativne umetne inteligence. Namesto osredotočanja le na en vir, Microsoft načrtuje ponudbo modelov od več različnih ponudnikov — med njimi tudi OpenAI, v katero je vložil 14 milijard dolarjev — s čimer ustvarja raznolik ekosistem, ki spodbuja inovacije in obenem vzdržuje visoke varnostne in etične standarde. Metrika varnosti pride v času naraščajočih skrbi glede zlorab AI, vključno s škodljivo vsebino, dezinformacijami in zlonamernimi aplikacijami. Microsoftov pristop tem izzivom neposredno naslavlja z uvedbo merljivih varnostnih standardov, ki vodijo odgovorno uporabo AI. Kombinacija ToxiGen in WMD Proxy meril omogoča celovito oceno tveganj, ki zajema tako škodljive jezike kot tudi možnosti zlorab na podlagi neetičnega ravnanja. Preko Azure Foundry bodo razvijalci dostopali do podrobnih ocen varnosti, kar jim bo omogočilo boljšo izbiro modelov ter spodbujalo transparentnost in večje zaupanje uporabnikov in deležnikov v AI.
Vloga Microsofta kot platforme, ki gosti več ponudnikov AI, poudarja njegovo zavezanost k raznolikosti in nevtralnosti, s čimer spodbuja konkurenco in inovacije, hkrati pa preprečuje dominacijo enega samega ponudnika na trgu. Ta raznolikost si prizadeva po visokih standardih tako glede zmogljivosti kot tudi varnosti in etike. Močno partnerstvo Microsofta z OpenAI zagotavlja, da verjame v preobrazbeni potencial generativne AI, ekosistem ponudnikov pa si prizadeva ustvariti živ, odgovoren trg AI. Metrika razvrščanja glede varnosti je temeljna za postavljanje jasnih pričakovanj glede varnosti in odgovornosti AI modelov. Ta pobuda se sklada tudi z globalnimi industrijskimi in regulativnimi prizadevanji za odgovorno upravljanje AI. Kot vlade in organizacije razvijajo okvire za preprečevanje škodljivih vplivov AI, se Microsoft postavlja kot vodilni pri vzpostavljanju najboljših praks za varno uporabo AI. Ker se tehnologije AI hitro razvijajo, so trdna varnostna merila vse bolj nujna. V zaključku, nova metrika razvrščanja varnosti na Azure Foundry predstavlja proaktiven in napreden pristop k upravljanju AI. Z uporabo uveljavljenih standardov za oceno tveganj, povezanih z sovražnim govorom, zlorabami in škodljivimi rezultati, Microsoft ustvarja okolje za odgovoren razvoj in uporabo AI. Ta ukrep povečuje zaupanje strank ter utrjuje položaj Microsofta kot nevtralnega in etičnega ponudnika AI platforme v hitro spreminjajočem se tehnološkem okolju.
Brief news summary
Microsoft izboljšuje varnost AI na svoji platformi Azure Foundry z uvedbo nove metre "varnosti", ki ocenjuje tveganja, kot so sovražni govor in zloraba v AI modelih. Ta merile združuje Microsoftovo preverjalno orodje ToxiGen, ki zaznava toksičen in sovražen jezik, s Preverjalnikom Visokozanesljivega Sredstva Za Nasilje, ki ga je razvil Center za varnost AI in ocenjevalni model za potencialno zlorabo AI. Z integracijo teh orodij Microsoft ponudnikom omogoča pregledne varnostne profile za spodbujanje odgovorne uporabe AI in gradnjo zaupanja uporabnikov. Ta prizadevanja odražajo zavezanost Microsofta k etični, nevtralni platformi, ki gosti raznolike AI modele, vključno z modeli iz OpenAI, podprtimi z naložbo v vrednosti 14 milijard dolarjev. Ob naraščajočem pomisleku glede zlorabe AI uravnotežuje Microsoft inovacije s strogi etičnimi standardi in si prizadeva za vodilni položaj v upravljanju AI. Nova mera spodbuja odgovornost in transparentnost, uporabnikom pomaga pri sprejemanju premišljenih odločitev ter spodbuja zanesljivo uporabo AI v današnjem hitro spreminjajočem se tehnološkem okolju.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Paul Brody, EY: Kako blockchain spreminja svetovn…
Paul Brody, vodja svetovnega blockchaina pri EY in soustanovitelj knjige *Ethereum for Business* iz leta 2023, razpravlja o vplivu blockchaina na plačila, pošiljanje denarja, bančništvo in korporativne finance z revijo Global Finance.

Blockchain Group doda 68 milijonov dolarjev v Bit…
Sodobna podjetje za kriptovalute Blockchain Group s sedežem v Parizu je kupilo Bitcoin v vrednosti 68 milijonov dolarjev, s tem pa se je pridružilo naraščajočemu številu evropskih institucij, ki vključujejo BTC v svoje bilance stanja.

Senatovi republikanci preoblikujejo prepoved regu…
Senatni republikanci so preoblikovali sporni člen v svoji obsežni davčni zakonodaji, da bi ohranili politiko, ki omejuje pristojnost držav pri regulaciji umetne inteligence (UI).

Festival filma AI poudarja rastočo vlogo umetne i…
Festival filma AI, ki ga organizira podjetje za video posnetke, ustvarjene z umetno inteligenco Runway, se je vrnil v New York že tretje leto zapored, s čimer poudarja hitro rastočo vlogo umetne inteligence v filmski industriji.

ZK-Proof Blockchain Altcoin Lagrange (LA) leti v …
Altcoin s protokolom za dokaze brez razkritja (ZK) je po podpori Coinbase, vodilne platforme za trgovanje s kriptovalutami v ZDA, doživel izrazit porast.

Virtualna konferenca o blockchainu in digitalnih …
NOVA YORKE, 6.

Odvetniki se soočajo z ukrepi zaradi navajanja la…
Višja sodnica v Združenem kraljestvu, Victoria Sharp, je izdala močno opozorilo pravnim strokovnjakom glede nevarnosti uporabe orodij umetne inteligence, kot je ChatGPT, za navajanje izmišljenih pravnih primerov.