None
Brief news summary
Le PDG de Nvidia, Jensen Huang, est confiant quant à la domination continue de l'entreprise dans les puces d'entraînement à l'IA, malgré la concurrence et une baisse prévue des ventes de puces fournies par un important fournisseur. Les semi-conducteurs de Nvidia sont essentiels pour exécuter des modèles de langage et de vision par ordinateur pour des entreprises telles que OpenAI et Tesla. La prochaine sortie du système "Blackwell" de Nvidia devrait renforcer davantage sa position de leader sur le marché. L'avantage de Nvidia réside dans son écosystème CUDA largement adopté, devenu une norme parmi les développeurs. Cependant, les prévisions récentes de Micron correspondant aux attentes du marché ont suscité des inquiétudes parmi les investisseurs en IA. Micron fournit des puces de mémoire à large bande passante (HBM) à des entreprises telles que Nvidia, et sa forte demande suggère que le goulot d'étranglement de la mémoire, connu sous le nom de "mur de la mémoire", pourrait entraver l'échelle efficace des modèles d'entraînement à l'IA. En fait, la société Micron aurait déjà vendu toutes ses capacités de production de HBM jusqu'à la fin de l'année civile prochaine.Le PDG de Nvidia, Jensen Huang, a assuré les investisseurs que Nvidia continuera d'être le principal fournisseur de puces d'apprentissage en intelligence artificielle (IA), malgré une concurrence croissante et des prévisions modestes de ventes de puces IA de la part d'un de ses principaux fournisseurs. Les semi-conducteurs de Nvidia sont utilisés par des organisations telles que OpenAI et Tesla pour exécuter des modèles de langage et de vision par ordinateur. La sortie imminente du système "Blackwell" de Nvidia devrait encore renforcer sa position. Le succès de Nvidia est attribué à son écosystème IA appelé CUDA, qui est devenu une norme dans l'industrie.
Cependant, les prévisions de chiffre d'affaires de Micron Technology pour le prochain trimestre ont suscité certaines inquiétudes dans le secteur de l'IA, car Micron fournit des puces mémoire à large bande passante (HBM) à Nvidia. La demande de puces HBM est considérée comme un indicateur de la croissance de l'industrie de l'IA et de sa capacité à résoudre les problèmes d'évolutivité. Micron a déclaré que son activité HBM était déjà épuisée jusqu'à la fin de l'année prochaine, ce qui témoigne d'une forte demande.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you