lang icon Spanish
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 7, 2025, 2:16 p.m.
3

Microsoft presenta una métrica de clasificación de seguridad en IA en Azure Foundry para garantizar una implementación ética de la inteligencia artificial

Microsoft está avanzando en la seguridad de la inteligencia artificial en su plataforma de desarrollo Azure Foundry al introducir una nueva métrica de clasificación de "seguridad" para evaluar los modelos de IA en busca de riesgos potenciales, como generar discurso de odio o facilitar el uso indebido. Esta métrica tiene como objetivo generar confianza entre los clientes mediante una evaluación transparente de los perfiles de seguridad de diversos modelos de IA. Las clasificaciones se basarán en dos puntos de referencia clave: el benchmark ToxiGen de Microsoft, que detecta lenguaje tóxico y discurso de odio, y el benchmark Proxy de Armas de Destrucción Masiva del Centro para la Seguridad en IA, que evalúa riesgos relacionados con el uso indebido dañino. Estas herramientas aseguran una implementación ética y segura de las tecnologías de IA generativa. Al integrar estas evaluaciones rigurosas, Microsoft ofrece a desarrolladores y organizaciones información clara sobre la seguridad de los modelos de IA que puedan integrar en aplicaciones y servicios. Esta iniciativa se alinea con la estrategia más amplia de Microsoft de ser un proveedor de plataformas neutral y responsable en el cambiante campo de la IA generativa. En lugar de limitarse a una sola fuente, Microsoft planea ofrecer modelos de múltiples proveedores, incluido OpenAI, en el que ha invertido 14 mil millones de dólares, creando un ecosistema diverso que fomente la innovación y mantenga altos estándares de seguridad y ética. La métrica de seguridad llega en medio de crecientes preocupaciones sobre el uso indebido de la IA, incluyendo la generación de contenido dañino, desinformación y aplicaciones maliciosas. El enfoque de Microsoft aborda directamente estos desafíos mediante la implementación de estándares de seguridad medibles que guían el uso responsable de la IA. La combinación del benchmark ToxiGen y el Proxy de Armas de Destrucción Masiva ofrece una evaluación integral de riesgos, cubriendo tanto el lenguaje dañino como las posibles malas prácticas éticas. A través de Azure Foundry, los desarrolladores tendrán acceso a puntuaciones de seguridad detalladas, lo que permitirá una selección informada de modelos y fomentará la transparencia que aumenta la confianza de usuarios y partes interesadas.

El papel de Microsoft como plataforma que alberga múltiples proveedores de IA subraya su compromiso con la diversidad y la neutralidad, promoviendo la competencia y la innovación mientras previene el dominio del mercado por parte de una sola entidad. Esta diversidad busca priorizar no solo el rendimiento, sino también la seguridad y la ética. La sólida asociación de Microsoft con OpenAI destaca su creencia en el potencial transformador de la IA generativa, y el ecosistema de proveedores amplía la creación de un mercado de IA activo y responsable. La métrica de clasificación de seguridad es fundamental para establecer expectativas claras de seguridad y responsabilidad para los modelos de IA. Esta iniciativa también se alinea con los esfuerzos globales de la industria y las regulaciones para gobernar la IA de manera responsable. A medida que los gobiernos y organizaciones desarrollan marcos para prevenir daños relacionados con la IA, Microsoft se posiciona como un líder en el establecimiento de mejores prácticas para una implementación segura de la IA. Con el avance rápido de las tecnologías de IA, las medidas de seguridad robustas son cada vez más indispensables. En conclusión, la nueva métrica de clasificación de seguridad de Microsoft en Azure Foundry ejemplifica un enfoque proactivo y visionario en la gobernanza de la IA. Al aprovechar estándares establecidos para evaluar riesgos relacionados con el discurso de odio, el uso indebido y los resultados dañinos, Microsoft está cultivando un entorno para el desarrollo y despliegue responsable de la IA. Este movimiento fortalece la confianza de los clientes y consolida la posición de Microsoft como un proveedor de plataformas de IA éticas y neutrales en un panorama tecnológico en rápida evolución.



Brief news summary

Microsoft está mejorando la seguridad de la IA en su plataforma Azure Foundry mediante la introducción de una nueva métrica de "seguridad" para evaluar riesgos como el discurso de odio y el uso indebido en los modelos de IA. Esta métrica combina el benchmark ToxiGen de Microsoft, que detecta lenguaje tóxico y odioso, con el benchmark Proxy de Armas de Destrucción Masiva del Centro para la Seguridad de la IA, que evalúa el posible uso indebido de la IA. Al integrar estas herramientas, Microsoft ofrece a los desarrolladores perfiles de seguridad transparentes para promover una implementación responsable de la IA y construir confianza entre los usuarios. Este esfuerzo refleja el compromiso de Microsoft con una plataforma ética y neutral que alberga diversos modelos de IA, incluidos los de OpenAI, respaldados por una inversión de 14 mil millones de dólares. En medio de crecientes preocupaciones sobre el uso indebido de la IA, Microsoft equilibra la innovación con altos estándares éticos, posicionándose como un líder en gobernanza de la IA. La nueva métrica fomenta la responsabilidad y la transparencia, ayudando a los usuarios a tomar decisiones informadas y promoviendo una adopción confiable de la IA en el Landscape tecnológico en rápida evolución de hoy.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 7, 2025, 2:32 p.m.

Paul Brody, EY: Cómo la Blockchain Está Transform…

Paul Brody, líder global de blockchain en EY y copar GRATISautante del libro de 2023 *Ethereum for Business*, analiza el impacto de la cadena de bloques en pagos, remesas, banca y finanzas corporativas con Global Finance.

June 7, 2025, 10:22 a.m.

Blockchain Group añade 68 millones de dólares en …

Empresa de criptomonedas con sede en París, Blockchain Group, ha comprado 68 millones de dólares en Bitcoin, uniéndose a un número creciente de instituciones europeas que incorporan BTC en sus balances.

June 7, 2025, 10:17 a.m.

Los republicanos del Senado revisan la prohibició…

Los Republicanos del Senado han revisado una disposición polémica en su extenso proyecto de ley fiscal para preservar una política que restringe la autoridad estatal sobre la regulación de la inteligencia artificial (IA).

June 7, 2025, 6:24 a.m.

Lo más destacado del Festival de Cine de IA: el c…

El Festival de Cine de IA, organizado por la empresa de videos generados por IA Runway, ha regresado a Nueva York por tercer año consecutivo, destacando el papel en rápida expansión de la inteligencia artificial en la cinematografía.

June 7, 2025, 6:16 a.m.

La criptomoneda alternativa de blockchain con pru…

Una altcoin de prueba de cero conocimiento (ZK) ha experimentado un aumento significativo tras recibir apoyo de Coinbase, la principal plataforma de intercambio de criptomonedas basada en EE.

June 6, 2025, 2:25 p.m.

Conferencia Virtual para Inversores de Blockchain…

NEW YORK, 6 de junio de 2025 (GLOBE NEWSWIRE) — Virtual Investor Conferences, la principal serie de conferencias de inversores propiedad de la compañía, anunció hoy que las presentaciones de la Conferencia Virtual de Inversores sobre Blockchain y Activos Digitales celebrada el 5 de junio ya están disponibles para su visualización en línea.

June 6, 2025, 2:17 p.m.

Abogados enfrentan sanciones por citar casos fals…

Una jueza sénior del Reino Unido, Victoria Sharp, ha emitido una advertencia contundente a los profesionales del derecho acerca de los peligros de usar herramientas de inteligencia artificial como ChatGPT para citar casos legales falsificados.

All news