Microsoft introduce un indice de clasament pentru siguranța AI pe Azure Foundry pentru a asigura implementarea etică a inteligenței artificiale

Microsoft avansează siguranța AI pe platforma sa de dezvoltare Azure Foundry prin introducerea unui nou sistem de clasificare a „siguranței” pentru a evalua potențialele riscuri ale modelelor AI, precum generarea de discurs instigator la ură sau facilitarea utilizării abuzive. Acest sistem are scopul de a construi încrederea clienților prin evaluarea transparentă a profilurilor de siguranță ale diverselor modele AI. Clasificările vor fi bazate pe doi indicatori cheie: benchmark-ul ToxiGen al Microsoft, care detectează limbaj toxic și discurs instigator la ură, și benchmark-ul Proxy al Centrului pentru Siguranța AI, denumit Weapons of Mass Destruction, care evaluează riscurile legate de utilizarea abuzivă nocivă. Aceste instrumente asigură o implementare etică și sigură a tehnologiilor AI generative. Prin integrarea acestor evaluări riguroase, Microsoft oferă dezvoltatorilor și organizațiilor perspective clare asupra siguranței modelelor AI pe care le pot integra în aplicații și servicii. Această inițiativă se aliniază cu strategia mai largă a Microsoft de a fi un furnizor de platformă neutră și responsabilă în domeniul AI generativ în continuă evoluție. În loc să se limiteze la o singură sursă, Microsoft intenționează să ofere modele provenite de la multiple furnizori — inclusiv OpenAI, în care a investit 14 miliarde de dolari — creând un ecosistem diversificat care stimulează inovația, menținând în același timp standarde înalte de siguranță și etică. Sistemul de clasare a siguranței survine pe fondul îngrijorărilor tot mai mari legate de utilizarea abuzivă a AI, inclusiv generarea de conținut dăunător, dezinformare și aplicații malițioase. Abordarea Microsoft răspunde direct acestor provocări prin implementarea unor standarde de siguranță măsurabile, menite să ghideze utilizarea responsabilă a AI. Combinarea benchmark-urilor ToxiGen și Proxy pentru Weapons of Mass Destruction oferă o evaluare complexă a riscurilor, acoperind atât limbajul nociv, cât și posibilitatea utilizării neetice. Prin Azure Foundry, dezvoltatorii vor putea accesa scoruri detaliate de siguranță, facilitând o selecție informată a modelelor și promovând transparența ce crește încrederea utilizatorilor și stakeholderilor AI.
Rolul Microsoft de a găzdui mai mulți furnizori de AI subliniază angajamentul său față de diversitate și neutralețe, încurajând concurența și inovația, evitând dominația pe piață a unei singure entități. Această diversitate vizează nu doar performanța, ci și siguranța și etica. Parteneriatul solid al Microsoft cu OpenAI reflectă credința sa în potențialul transformator al AI generativ, iar ecosistemul extins de furnizori urmărește crearea unei piețe active și responsabile pentru AI. Sistemul de clasificare a siguranței este fundamental în stabilirea unor așteptări clare și a responsabilității pentru modelele AI. Această inițiativă se aliniază și cu eforturile mondiale ale industriei și ale autorităților de reglementare de a guverna AI în mod responsabil. Pe măsură ce guvernele și organizațiile dezvoltă cadre de reglementare pentru a preveni prejudiciile legate de AI, Microsoft își asumă poziția de lider în stabilirea celor mai bune practici pentru implementarea sigură a AI. Într-un context în care tehnologiile AI evoluează rapid, măsurile robuste de siguranță devin tot mai necesare. În concluzie, noul sistem de clasificare a siguranței al Microsoft pe Azure Foundry reprezintă o abordare proactivă și avansată în guvernarea AI. Prin utilizarea unor indicatori consacrați pentru a evalua riscurile legate de discursul instigator la ură, utilizarea abuzivă și rezultatele dăunătoare, Microsoft cultivă un mediu pentru dezvoltarea și implementarea responsabilă a AI. Această mișcare sporește încrederea clienților și consolidează poziția Microsoft ca un furnizor neutru și etic de platforme AI într-un peisaj tehnologic în rapidă schimbare.
Brief news summary
Microsoft îmbunătățește siguranța AI pe platforma sa Azure Foundry prin introducerea unei noi metrici de clasificare a " siguranței" pentru a evalua riscurile precum discursul instigator la ură și abuzul în modelele AI. Această metrică combină ToxiGen, benchmark-ul Microsoft pentru detectarea limbajului toxic și răuvoitor, cu benchmark-ul Weapons of Mass Destruction Proxy al Center for AI Safety, care evaluează potențialul de abuz al AI-ului. Prin integrarea acestor instrumente, Microsoft oferă dezvoltatorilor profiluri de siguranță transparente pentru a promova implementarea responsabilă a AI-ului și pentru a construi încredere în utilizatori. Acest efort reflectă angajamentul Microsoft față de o platformă etică și neutră, care găzduiește diverse modele AI, inclusiv cele de la OpenAI, susținute de o investiție de 14 miliarde de dolari. În contextul crescândelor îngrijorări legate de abuzul AI-ului, Microsoft echilibrează inovația cu norme etice solide, poziționându-se ca lider în guvernanța AI. Noua metrică promovează responsabilitatea și transparența, ajutând utilizatorii să ia decizii informate și încurajând adoptarea unui AI de încredere într-un peisaj tehnologic în rapidă evoluție.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Paul Brody, EY: Cum transformă Blockchain-ul come…
Paul Brody, liderul global al blockchain-ului la EY și coautor al cărții din 2023 *Ethereum for Business*, discută despre impactul blockchain-ului asupra plăților, remitențelor, banking-ului și finanțelor corporative cu Global Finance.

Grupul Blockchain adaugă 68 milioane de dolari în…
Compania de criptomonede cu sediul în Paris, Blockchain Group, a achiziționat Bitcoin în valoare de 68 milioane de dolari, alăturându-se unui număr tot mai mare de instituții europene care integrează BTC în bilanțurile lor.

Republicanii din Senat revizuiesc interdicția pri…
Republicanii din Senat au revizuit o prevedere controversată din legislația fiscală amplă pentru a păstra o politică care limitează autoritatea statelor în reglementarea inteligenței artificiale (AI).

Festivalul de Film AI evidențiază rolul tot mai i…
Festivalul de Film AI, organizat de compania de videoclipuri generate de AI, Runway, s-a întors la New York pentru al treilea an consecutiv, evidențiind rolul în rapidă expansiune al inteligenței artificiale în lumea cinematografiei.

Blockchain de tip ZK-Proof Altcoin Lagrange (LA) …
Un altcoin bazat pe dovada zero cunoașterii (ZK) a înregistrat o creştere semnificativă după ce a primit sprijin din partea Coinbase, cea mai mare platformă de schimb de criptomonede din SUA.

Conferința Virtuală pentru Investitori în Blockch…
NEW YORK, 06 iunie 2025 (GLOBE NEWSWIRE) — Virtual Investor Conferences, cea mai importantă serie de conferințe proprii pentru investitori, a anunțat astăzi că prezentările de la Virtual Investor Conference despre Blockchain și Active Digitale, desfășurat pe 5 iunie, sunt acum accesibile pentru vizionare online.

Avocații se confruntă cu sancțiuni pentru citarea…
Un judecător senior din Regatul Unit, Victoria Sharp, a emis un avertisment puternic către profesioniștii din domeniul juridic cu privire la pericolele utilizării instrumentelor AI precum ChatGPT pentru a cita cazuri legale fabricate.