Microsoft està millorant la seguretat de la IA a la seva plataforma per a desenvolupadors Azure Foundry introduint una nova mètrica de 'seguretat' per avaluar els models d'IA davant de possibles riscos, com ara generar discursos de odi o possibilitar usos indeguts. Aquesta mètrica pretén generar confiança entre els clients mitjançant una avaluació transparent dels perfils de seguretat de diversos models d'IA. Les qualificacions es basaran en dos punts de referència clau: el benchmark ToxiGen de Microsoft, que detecta llenguatge tòxic i discursos d'odi, i el benchmark 'Weapons of Mass Destruction Proxy' del Center for AI Safety, que avaluen els riscos relacionats amb usos perjudicials. Aquestes eines garanteixen un desplegament ètic i segur de les tecnologies d'IA generativa. Mitjançant aquestes avaluacions rigoroses, Microsoft ofereix a desenvolupadors i organitzacions una visió clara de la seguretat dels models d'IA que poden integrar en aplicacions i serveis. Aquesta iniciativa s'alinea amb l'estratègia més àmplia de Microsoft de convertir-se en un proveïdor de plataforma neutral i responsable en l'espai en evolució de la IA generativa. En lloc de limitar-se a una sola font, Microsoft té la intenció d'oferir models de múltiples proveïdors —entre ells OpenAI, en què ha invertit 14. 000 milions de dòlars— creant un ecosistema divers que fomenti la innovació tot mantenint uns estàndards elevats de seguretat i ètica. La mètrica de seguretat arriba en un context de preocupacions creixents sobre l'ús indegut de la IA, incloent la generació de contingut perjudicial, la desinformació i aplicacions malicioses. L'enfocament de Microsoft aborda directament aquests desafiaments implementant estàndards de seguretat mesurables per orientar l'ús responsable de la IA. La combinació dels benchmarks ToxiGen i Weapons of Mass Destruction Proxy ofereix una valoració de riscos integral, cobrint tant el llenguatge tòxic com possibles usos èticament qüestionables. A través d'Azure Foundry, els desenvolupadors podran accedir a puntuacions de seguretat detallades, facilitant una elecció informada dels models i promovent la transparència que augmenta la confiança dels usuaris i parts interessades en la IA.
El paper de Microsoft com a plataforma que acull múltiples proveïdors d'IA ressalta el seu compromís amb la diversitat i la neutralitat, fomentant la competència i la innovació mentre evita que un únic agent domini el mercat. Aquesta diversitat busca prioritzar no només el rendiment, sinó també la seguretat i l'ètica. La forta col·laboració de Microsoft amb OpenAI reflecteix la seva creença en el potencial transformador de la IA generativa, i l'ecosistema ampli de proveïdors pretén crear un mercat d'IA viu i responsable. La mètrica de classificació de la seguretat és fonamental per establir expectatives clares de seguretat i responsabilitat dels models d'IA. Aquesta iniciativa també s'alinea amb els esforços globals de la indústria i la regulació per governar la IA de manera responsable. A mesura que els governs i les organitzacions desenvolupen marcs normatius per prevenir perjudicis relacionats amb la IA, Microsoft es posiciona com a líder en l'establiment de millors pràctiques per al desplegament segur de la IA. Amb la ràpida evolució de les tecnologies d'IA, mesures de seguretat robustes són cada vegada més essencials. En conclusió, la nova mètrica de classificació de seguretat de Microsoft a Azure Foundry exemplifica un enfocament proactiu i avançat de la governança de la IA. Mitjançant l'ús de referents establerts per avaluar els riscos associats al discurs d'odi, l'ús indegut i les sortides perjudicials, Microsoft està cultivant un entorn de desenvolupament i desplegament responsable de la IA. Aquesta iniciativa reforça la confiança dels clients i consolida la posició de Microsoft com a proveïdor de plataforma d'IA neutral i ètica en un entorn tecnològic en ràpida evolució.
Microsoft introdueix una mètrica de classificació de seguretat de la IA a Azure Foundry per garantir una implementació ètica de la IA
Ens agradaria saber-ne més sobre com els canvis recents en el comportament de cerca en línia, impulsats per l'augment de la intel·ligència artificial, han afectat el vostre negoci.
El Danny Sullivan de Google va oferir orientació als SEO que treballen per a clients impacients per rebre novetats sobre les estratègies de SEO amb intel·ligència artificial.
Enmig de l'àgil avenç de la tecnologia d’intel·ligència artificial, les cadenes d’acció globals de components crítics són cada vegada més pressionades, especialment en l’abastiment de mòduls de xips d’IA essencials per alimentar aplicacions avançades d’IA.
iHeartMedia s'ha aliat amb Viant per introduir publicitat programàtica a través de la seva oferta d'àudio en streaming, ràdio per on general i podcasts.
Nvidia ha anunciat recentment una gran expansió de les seves iniciatives de codi obert, marcant un punt d’inflexió important en la indústria tecnològica.
L'auge de vídeos generats per IA està transformant profundament la sharing de contingut a les plataformes de xarxes socials.
Resum i Redactat de “The Gist” sobre la Transformació de la IA i la Cultura Organitzacional La transformació de la IA suposa principalment un repte cultural més que purament tecnològic
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today