None

MLCommons, un groupe de référence en intelligence artificielle, a publié un nouvel ensemble de tests et de résultats visant à évaluer la vitesse du matériel haut de gamme dans l'exécution d'applications d'intelligence artificielle et dans la réponse aux utilisateurs. Ces benchmarks mesurent la réactivité des puces et des systèmes d'intelligence artificielle dans la génération de réponses à partir de modèles d'IA très complexes. Cela permet d'évaluer la rapidité avec laquelle des applications telles que ChatGPT peuvent fournir des réponses aux requêtes des utilisateurs. L'un des nouveaux benchmarks, appelé Llama 2, se concentre sur la mesure de la vitesse des scénarios de questions-réponses pour les grands modèles de langage. Il a été développé par Meta Platforms et contient 70 milliards de paramètres. De plus, MLCommons a inclus un deuxième générateur de texte vers image, appelé MLPerf, basé sur le modèle Stable Diffusion XL de Stability AI. En termes de performances brutes, les serveurs équipés des puces H100 de Nvidia provenant de sociétés telles que Google, Supermicro et Nvidia lui-même se sont distingués dans les deux nouveaux benchmarks.
Certains constructeurs de serveurs ont également soumis des modèles basés sur la puce moins puissante L40S de Nvidia. Il convient de noter que le constructeur de serveurs Krai a soumis un modèle pour le benchmark de génération d'images utilisant une puce d'intelligence artificielle Qualcomm qui consomme significativement moins d'énergie que les processeurs de pointe de Nvidia. Intel a également soumis un modèle basé sur ses puces accélératrices Gaudi2, qui ont donné des résultats solides selon la société. Bien que les performances brutes soient importantes, l'efficacité énergétique est un autre aspect critique à prendre en compte lors du déploiement d'applications d'intelligence artificielle. Les puces d'IA avancées nécessitent une quantité d'énergie substantielle, il est donc essentiel de trouver un équilibre entre les performances et la consommation d'énergie, ce qui constitue un défi majeur pour les entreprises d'IA. MLCommons aborde cette question grâce à une catégorie de benchmark distincte dédiée à la mesure de la consommation d'énergie. (Rapport de Max A. Cherney à San Francisco ; Édition de Jamie Freed)
Brief news summary
None
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Il Foglio intègre l'IA dans le journalisme avec d…
Il Foglio, un journal italien de premier plan, a lancé une expérience révolutionnaire en intégrant l’intelligence artificielle dans le journalisme sous la direction de Claudio Cerasa.

L'entreprise de logiciel crypto OneBalance lève 2…
© 2025 Fortune Media IP Limited.

L'investissement de 14,3 milliards de dollars de …
Meta a révélé un investissement majeur dans le secteur de l'intelligence artificielle en achetant une participation de 49 % dans la société d'IA Scale pour 14,3 milliards de dollars.

La loi sur la clarté des valeurs mobilières d'Emm…
Washington, D.C. – La nuit dernière, la Loi sur la clarté des titres (Securities Clarity Act) du député Tom Emmer, ainsi que des parties de la Loi sur la certitude réglementaire de la blockchain (Blockchain Regulatory Certainty Act - BRCA), ont été adoptées avec succès lors de la séance de relecture par le comité des Services financiers de la Chambre des représentants, après avoir été intégrées à la Loi CLARITY.

Le gouvernement britannique développe un outil d'…
Le gouvernement du Royaume-Uni déploie d'importants efforts pour accroître la productivité dans le secteur public en utilisant les technologies d'intelligence artificielle.

ICE souhaite davantage de technologies d'analyse …
L’Immigration and Customs Enforcement (ICE) intensifie ses investissements dans la technologie d’intelligence en blockchain, aux côtés d’autres plateformes d’investigation.

Le comportement imprévisible des modèles linguist…
L'édition du 9 juin 2025 de la newsletter Axios AM met en lumière l'inquiétude croissante autour des modèles de langage avancés (LLMs) en intelligence artificielle.