MLCommons, eine KI-Benchmark-Gruppe, hat einen neuen Satz von Tests und Ergebnissen veröffentlicht, um die Geschwindigkeit von High-End-Hardware bei der Ausführung von KI-Anwendungen und der Reaktion auf Benutzer zu bewerten. Diese Benchmarks messen die Reaktionsfähigkeit von KI-Chips und -Systemen bei der Generierung von Antworten aus datengepackten KI-Modellen. Dies ermöglicht eine Bewertung, wie schnell Anwendungen wie ChatGPT Benutzeranfragen beantworten können. Einer der neuen Benchmarks, namens Llama 2, konzentriert sich auf die Messung der Geschwindigkeit von Frage-Antwort-Szenarien für große Sprachmodelle. Es wurde von Meta Platforms entwickelt und enthält 70 Milliarden Parameter. Zusätzlich enthielt MLCommons einen zweiten Text-zu-Bild-Generator namens MLPerf, der auf dem Stable Diffusion XL-Modell von Stability AI basiert. Hinsichtlich der reinen Leistung schnitten Server, die mit Nvidias H100-Chips von Unternehmen wie Google, Supermicro und Nvidia selbst betrieben wurden, in beiden neuen Benchmarks hervorragend ab.
Einige Serverhersteller reichten auch Designs auf Basis des weniger leistungsstarken L40S-Chips von Nvidia ein. Bemerkenswerterweise reichte der Serverhersteller Krai ein Design für den Bildgenerierungs-Benchmark ein, das einen Qualcomm KI-Chip verwendet, der bedeutend weniger Energie verbraucht als Nvidias neueste Prozessoren. Intel reichte ebenfalls ein Design auf Basis seiner Gaudi2-Beschleunigerchips ein, die laut dem Unternehmen solide Ergebnisse lieferten. Während die reine Leistung wichtig ist, ist Energieeffizienz ein weiterer entscheidender Aspekt, der bei der Bereitstellung von KI-Anwendungen zu berücksichtigen ist. Fortschrittliche KI-Chips benötigen erhebliche Energie, daher stellt die Suche nach einem Gleichgewicht zwischen Leistung und Energieverbrauch eine bedeutende Herausforderung für KI-Unternehmen dar. MLCommons adressiert dies durch eine separate Benchmark-Kategorie, die sich auf die Messung des Stromverbrauchs konzentriert. (Berichterstattung von Max A. Cherney in San Francisco; Bearbeitung von Jamie Freed)
None
Künstliche Intelligenz (KI) verändert den Bereich des digitalen Marketings grundlegend, insbesondere im Bereich der Suchmaschinenoptimierung (SEO).
Die Erzielung eines ROI bei Telekommunikationsmarketingkampagnen wird zunehmend schwieriger, da Budgets enger werden, die Erwartungen der Vorstandsebene steigen und der Wettbewerb sowohl durch traditionelle Rivalen als auch durch agile MVNOs und Herausforderer intensiver wird.
Oracle Corporation und AMD haben eine erweiterte Partnerschaft angekündigt, bei der ab dem dritten Quartal 2026 50.000 AMD-GPUs eingesetz werden sollen, um einen riesigen KI-"Supercluster" zu schaffen, der Next-Generation-KI-Modelle ermöglicht.
Globale Schiffseigner, Werften und Zulieferer bereiten sich auf einen neuen Investitionszyklus vor, der sich auf Flotteneffizienz, künstliche Intelligenz und Nachhaltigkeit konzentriert, so der neueste SMM Maritime Industry Report (MIR), der vor der Schiffsmesse im kommenden Jahr in Hamburg veröffentlicht wurde.
Deepfake-Technologie, angetrieben durch Fortschritte in der künstlichen Intelligenz, hat ein Niveau erreicht, das die Erstellung hochrealistischer Videos ermöglicht, in denen Personen Dinge sagen oder tun, die sie tatsächlich nie gesagt oder getan haben.
Für weitere Informationen besuchen Sie bitte: http://www
CoreWeave, ein führender Anbieter von Cloud-Computing-Diensten mit Schwerpunkt auf KI-Workloads, hat eine bedeutende Kreditlinie in Höhe von 650 Millionen US-Dollar erhalten, um sein Wachstum im Bereich KI-Cloud-Computing zu beschleunigen.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today