lang icon Catalan
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 7, 2025, 2:16 p.m.
2

Microsoft introdueix una mètrica de classificació de seguretat de la IA a Azure Foundry per garantir una implementació ètica de la IA

Microsoft està millorant la seguretat de la IA a la seva plataforma per a desenvolupadors Azure Foundry introduint una nova mètrica de 'seguretat' per avaluar els models d'IA davant de possibles riscos, com ara generar discursos de odi o possibilitar usos indeguts. Aquesta mètrica pretén generar confiança entre els clients mitjançant una avaluació transparent dels perfils de seguretat de diversos models d'IA. Les qualificacions es basaran en dos punts de referència clau: el benchmark ToxiGen de Microsoft, que detecta llenguatge tòxic i discursos d'odi, i el benchmark 'Weapons of Mass Destruction Proxy' del Center for AI Safety, que avaluen els riscos relacionats amb usos perjudicials. Aquestes eines garanteixen un desplegament ètic i segur de les tecnologies d'IA generativa. Mitjançant aquestes avaluacions rigoroses, Microsoft ofereix a desenvolupadors i organitzacions una visió clara de la seguretat dels models d'IA que poden integrar en aplicacions i serveis. Aquesta iniciativa s'alinea amb l'estratègia més àmplia de Microsoft de convertir-se en un proveïdor de plataforma neutral i responsable en l'espai en evolució de la IA generativa. En lloc de limitar-se a una sola font, Microsoft té la intenció d'oferir models de múltiples proveïdors —entre ells OpenAI, en què ha invertit 14. 000 milions de dòlars— creant un ecosistema divers que fomenti la innovació tot mantenint uns estàndards elevats de seguretat i ètica. La mètrica de seguretat arriba en un context de preocupacions creixents sobre l'ús indegut de la IA, incloent la generació de contingut perjudicial, la desinformació i aplicacions malicioses. L'enfocament de Microsoft aborda directament aquests desafiaments implementant estàndards de seguretat mesurables per orientar l'ús responsable de la IA. La combinació dels benchmarks ToxiGen i Weapons of Mass Destruction Proxy ofereix una valoració de riscos integral, cobrint tant el llenguatge tòxic com possibles usos èticament qüestionables. A través d'Azure Foundry, els desenvolupadors podran accedir a puntuacions de seguretat detallades, facilitant una elecció informada dels models i promovent la transparència que augmenta la confiança dels usuaris i parts interessades en la IA.

El paper de Microsoft com a plataforma que acull múltiples proveïdors d'IA ressalta el seu compromís amb la diversitat i la neutralitat, fomentant la competència i la innovació mentre evita que un únic agent domini el mercat. Aquesta diversitat busca prioritzar no només el rendiment, sinó també la seguretat i l'ètica. La forta col·laboració de Microsoft amb OpenAI reflecteix la seva creença en el potencial transformador de la IA generativa, i l'ecosistema ampli de proveïdors pretén crear un mercat d'IA viu i responsable. La mètrica de classificació de la seguretat és fonamental per establir expectatives clares de seguretat i responsabilitat dels models d'IA. Aquesta iniciativa també s'alinea amb els esforços globals de la indústria i la regulació per governar la IA de manera responsable. A mesura que els governs i les organitzacions desenvolupen marcs normatius per prevenir perjudicis relacionats amb la IA, Microsoft es posiciona com a líder en l'establiment de millors pràctiques per al desplegament segur de la IA. Amb la ràpida evolució de les tecnologies d'IA, mesures de seguretat robustes són cada vegada més essencials. En conclusió, la nova mètrica de classificació de seguretat de Microsoft a Azure Foundry exemplifica un enfocament proactiu i avançat de la governança de la IA. Mitjançant l'ús de referents establerts per avaluar els riscos associats al discurs d'odi, l'ús indegut i les sortides perjudicials, Microsoft està cultivant un entorn de desenvolupament i desplegament responsable de la IA. Aquesta iniciativa reforça la confiança dels clients i consolida la posició de Microsoft com a proveïdor de plataforma d'IA neutral i ètica en un entorn tecnològic en ràpida evolució.



Brief news summary

Microsoft està millorant la seguretat de la Intel·ligència Artificial a la seva plataforma Azure Foundry introduint una nova mesura de classificació de "seguretat" per avaluar els riscos com el discurs d'odi i l'ús indegut dels models d'IA. Aquesta mesura combina el marc de referència ToxiGen de Microsoft, que detecta llenguatge tòxic i d'odi, amb el marc de referència Proxy de les Armes de Destrucció Massiva del Centre per a la Seguretat de la Intel·ligència Artificial, que avalua el potencial ús indegut de la IA. En integrar aquestes eines, Microsoft ofereix als desenvolupadors perfils de seguretat transparents per fomentar un desplegament responsable de la IA i construir la confiança dels usuaris. Aquest esforç reflecteix el compromís de Microsoft amb una plataforma ètica i neutral que allotja models de IA diversos, incloent els d’OpenAI, suportats per una inversió de 14.000 milions de dòlars. Davant la creixent preocupació pel mal ús de la IA, Microsoft equilibra la innovació amb grans estàndards ètics, posicionant-se com a líder en governança de la Intel·ligència Artificial. La nova mesura fomenta la rendició de comptes i la transparència, ajudant els usuaris a prendre decisions informades i incentivant l’adopció de una IA de confiança en un panorama tecnològic en constant evolució.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 7, 2025, 2:32 p.m.

Paul Brody, EY: Com està transformant la blockcha…

Paul Brody, líder global de blockchain de EY i coautor del llibre *Ethereum for Business* de 2023, explica l’impacte de la blockchain en els pagaments, les remeses, la banca i les finances corporatives amb Global Finance.

June 7, 2025, 10:22 a.m.

Blockchain Group afegeix 68 milions de dòlars en …

L'empresa de criptomonedes amb seu a París Blockchain Group ha comprat Bitcoin per un valor de 68 milions de dòlars, participant en un nombre creixent d'institucions europees que incorporen BTC als seus balanços.

June 7, 2025, 10:17 a.m.

Els republicans del Senat revisen la prohibició d…

Els republicans del Senat han revisat una disposició controvertida de la seva extensa legislació fiscal per preservar una política que restringeix l’autoritat estatal sobre la regulació de la intel·ligència artificial (IA).

June 7, 2025, 6:24 a.m.

Els punts àlgids del Festival de Cinema d'Intel·l…

El Festival de Cinema de la Intel·ligència Artificial, organitzat per l’empresa de vídeos generats per IA Runway, ha tornat a Nova York per cinquè any consecutiu, destacant el paper en ràpida expansió de la intel·ligència artificial en el món del cinema.

June 7, 2025, 6:16 a.m.

La cadena de blocs ZK-Proof Altcoin Lagrange (LA)…

Un altcoin de prova d'ignorància zero (ZK) ha experimentat un augment significatiu després de rebre suport de Coinbase, la principal plataforma d’intercanvi de criptomonedes amb seu als Estats Units.

June 6, 2025, 2:25 p.m.

Conferència Virtual per a Inversors en Blockchain…

NYC, 6 de juny de 2025 (GLOBE NEWSWIRE) — Virtual Investor Conferences, la sèrie de conferències per a inversors propietària líder, ha anunciat avui que les presentacions de la Virtual Investor Conference sobre Blockchain i Actius Digitals celebrada el 5 de juny ja són accessibles per a la visualització en línia.

June 6, 2025, 2:17 p.m.

Advocats s'enfronten a sancions per citar casos f…

Una jutge del Regne Unit, Victoria Sharp, ha emès un avís ferm als professionals del dret sobre els perills d’utilitzar eines d’IA com ChatGPT per citar casos jurídics fabricats.

All news