Mistral AI lanza un pequeño modelo de lenguaje en 3 idiomas: Un cambio radical en la eficiencia de la IA.

Mistral AI, una startup europea de rápido crecimiento en inteligencia artificial, anunció hoy el lanzamiento de un nuevo modelo de lenguaje que afirma ofrece un rendimiento equivalente a modelos tres veces más grandes, al tiempo que reduce significativamente los gastos de computación. Este avance tiene el potencial de redefinir el panorama económico para la implementación de IA avanzada. Llamado Mistral Small 3, el modelo cuenta con 24 mil millones de parámetros y logra un 81% de precisión en benchmarks estándar, procesando 150 tokens por segundo. La compañía lo pone a disposición bajo la licencia abierta Apache 2. 0, lo que otorga a las empresas la libertad de modificarlo y desplegarlo como deseen. Guillaume Lample, director científico de Mistral, declaró en una discusión exclusiva con VentureBeat: “Lo consideramos el mejor modelo entre aquellos con menos de 70 mil millones de parámetros. Estimamos que es aproximadamente comparable al Llama 3. 3 70B de Meta, que fue lanzado hace unos meses y es tres veces más grande”. Este anuncio llega en medio de un aumento de la atención sobre los costos de desarrollo de IA. La startup china DeepSeek afirmó haber entrenado un modelo competitivo por solo 5. 6 millones de dólares, una declaración que resultó en una pérdida de casi 600 mil millones de dólares en la valoración de mercado de Nvidia esta semana, mientras los inversores reconsideraban las enormes inversiones realizadas por las empresas tecnológicas de EE. UU. La estrategia de Mistral enfatiza la eficiencia por encima de la pura escala. La compañía atribuye sus mejoras en el rendimiento principalmente a técnicas de entrenamiento avanzadas, evitando la estrategia de simplemente aumentar el poder computacional. “Lo que ha cambiado son esencialmente los métodos de optimización del entrenamiento, ” explicó Lample a VentureBeat. “Adoptamos una estrategia de entrenamiento diferente para optimizar el modelo. ” Según Lample, el modelo fue entrenado con 8 billones de tokens, mientras que modelos similares requieren alrededor de 15 billones de tokens.
Esta eficiencia mejorada podría hacer que la tecnología de IA avanzada sea más accesible para las empresas preocupadas por los costos computacionales. Es importante destacar que Mistral Small 3 fue creado sin aprendizaje por refuerzo ni datos de entrenamiento sintético—métodos a menudo empleados por competidores. Lample señaló que esta metodología “cruda” ayuda a prevenir la incorporación de sesgos indeseables que pueden ser difíciles de identificar más adelante. El modelo está destinado especialmente a empresas que necesitan implementación local por razones de privacidad y fiabilidad, como aquellas en servicios financieros, atención médica y manufactura. Funciona en una sola GPU y abarca del 80 al 90% de las aplicaciones comerciales estándar, según indica la compañía. “Muchos de nuestros clientes prefieren una solución local debido a sus preocupaciones sobre privacidad y fiabilidad, ” comentó Lample. “Quieren que los servicios críticos sean respaldados por sistemas que puedan controlar completamente. ” Mistral, con una valoración de 6 mil millones de dólares, se está estableciendo como el principal contendiente de Europa en la esfera global de la IA. La compañía recientemente obtuvo inversión de Microsoft y se está preparando para una futura salida a bolsa, como destacó su CEO, Arthur Mensch. Expertos de la industria sugieren que la dedicación de Mistral al desarrollo de modelos más pequeños y eficientes puede ser estratégicamente astuta a medida que el sector de la IA evoluciona. Este enfoque contrasta con los caminos tomados por empresas como OpenAI y Anthropic, que se han concentrado en crear modelos cada vez más grandes y costosos. Lample expresó su pronóstico, afirmando: “Probablemente seremos testigos de una repetición de lo que ocurrió en 2024, potencialmente a mayor escala —un aflujo de modelos de código abierto con licencias muy permisivas. Creemos que los modelos condicionales probablemente se convertirán en commodities. ” A medida que la competencia se intensifica y la eficiencia mejora, el enfoque de Mistral en optimizar modelos más pequeños podría facilitar un acceso más amplio a la tecnología de IA avanzada, potencialmente acelerando la adopción en la industria y reduciendo los costos asociados con la infraestructura computacional.
Brief news summary
Mistral AI, una startup europea en ascenso, ha lanzado Mistral Small 3, un potente modelo de lenguaje con 24 mil millones de parámetros. Este modelo presenta una impresionante precisión del 81% en puntos de referencia estándar y procesa 150 tokens por segundo, lo que lo convierte en una opción rentable para las empresas. Lanzado bajo la licencia Apache 2.0, permite a las compañías la flexibilidad para modificar y desplegar el modelo como deseen. El CEO Guillaume Lample destaca su superioridad de rendimiento sobre Llama 3.3 de Meta, atribuyendo su éxito a métodos de entrenamiento innovadores en lugar de solo a su tamaño. Entrenado en 8 billones de tokens, Mistral Small 3 está diseñado para empresas que necesitan soluciones de IA seguras y locales, particularmente en finanzas y atención médica. Evita métodos tradicionales como el aprendizaje por refuerzo y los datos sintéticos para minimizar los sesgos. Con una valoración de 6 mil millones de dólares y planes para una OPI, Mistral AI tiene como objetivo fortalecer su presencia en el paisaje de IA europeo. A medida que aumenta la demanda de modelos de IA eficientes y compactos, la estrategia de Mistral se centra en mejorar la accesibilidad y reducir costos, allanando el camino para una adopción más amplia en la industria.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Pakistán forma un nuevo «Consejo de Criptomonedas…
Pakistán ha dado un paso importante para adoptar y regular la economía digital emergente mediante la creación del Consejo Cripto de Pakistán (PCC).

Con entrelazamiento cuántico y blockchain, finalm…
Sin ofender a Einstein, pero sin duda estuvo equivocado respecto a la teoría cuántica: no solo ha perdurado, sino que también ha demostrado ser invaluable en campos como la informática, biología, óptica e incluso en juegos de azar.

La inversión de 14,8 mil millones de dólares de M…
Meta, anteriormente Facebook, ha invertido 14.8 mil millones de dólares en Scale AI, una startup especializada en servicios de etiquetado de datos.

La Cámara de Representantes de EE.UU. aprueba pro…
El miércoles, la Cámara de Representantes de EE.

Google planea desvincularse de Scale AI en medio …
Google planea acabar su relación con Scale AI, una de las principales startups de etiquetado de datos, tras la reciente adquisición del 49 % de la compañía por parte de Meta.

La moneda USDC nativa de Circle entra en funciona…
El miércoles 11 de junio, la compañía anunció que USDC de Circle y el actualizado Protocolo de Transferencia Intercadena (CCTP V2) se habían lanzado oficialmente en World Chain.

El Modo de IA de Google para Búsquedas: Transform…
Google ha anunciado el lanzamiento de un innovador Modo de IA dentro de su motor de búsqueda, con el objetivo de transformar la forma en que los usuarios interactúan con la información en línea.