Qualcomm Technologies, Inc. hat mit der Vorstellung der neuen AI200- und AI250-Plattformen einen bedeutenden Schritt in Richtung leistungsstarker und kosteneffizienter KI-Infrastruktur für Rechenzentren gemacht. Die beiden chipbasierten Beschleunigerkarten und zugehörigen Rack-Systeme sind speziell für generative KI-Inferenz optimiert und bieten eine Kombination aus hoher Rechenleistung, innovativer Speicherarchitektur und umfassender Softwareunterstützung.
+++ Unser kostenloser Handy-Schnäppchen Channel ist hier zu finden: Handy Deals und Aktionen (Telegram) oder Mobile Deals (WhatsApp). +++
Skalierbare Leistung bei niedrigem TCO
Die Lösungen AI200 und AI250 liefern Rack-Scale-Leistung für KI-Inferenz bei einem branchenführenden Verhältnis von Leistung zu Kosten und Energieverbrauch. Die AI200-Plattform ist für große Sprach- und Multimodalmodelle (LLM, LMM) konzipiert und bietet mit 768 GB LPDDR-Speicher pro Karte eine hohe Kapazität bei gleichzeitig niedrigen Kosten. Dies ermöglicht eine flexible und skalierbare Nutzung für verschiedenste KI-Anwendungen.
Speicherinnovation mit AI250
Die AI250-Lösung geht noch einen Schritt weiter: Sie basiert auf einer neuartigen Near-Memory-Computing-Architektur, die eine mehr als zehnfache Steigerung der effektiven Speicherbandbreite bei deutlich reduziertem Energieverbrauch ermöglicht. Diese Architektur erlaubt eine disaggregierte Inferenz, bei der Hardware effizienter genutzt und gleichzeitig die Anforderungen an Leistung und Kosten erfüllt werden.
Technische Ausstattung und Sicherheit
Beide Rack-Systeme verfügen über direkte Flüssigkeitskühlung zur thermischen Optimierung, PCIe-Schnittstellen für vertikale Skalierung, Ethernet für horizontale Skalierung sowie Funktionen für vertrauliches Rechnen, um sensible KI-Workloads sicher zu verarbeiten. Die maximale Leistungsaufnahme pro Rack liegt bei 160 kW.
Software-Ökosystem für einfache Integration
Ein zentrales Element der neuen Plattformen ist die umfassende Softwareunterstützung. Qualcomm bietet eine hyperscaler-taugliche AI-Software-Stack, die von der Anwendungsebene bis zur Systemsoftware reicht. Sie unterstützt führende ML- und Inferenz-Frameworks sowie generative KI-Modelle und erlaubt die einfache Integration und Verwaltung bereits trainierter Modelle. Entwickler profitieren von Tools wie der Efficient Transformers Library und der Qualcomm AI Inference Suite, die unter anderem die Ein-Klick-Integration von Hugging-Face-Modellen ermöglichen.
Roadmap und Verfügbarkeit
Die kommerzielle Einführung der AI200-Plattform ist für 2026 geplant, die AI250 folgt 2027. Qualcomm verfolgt eine jährliche Innovations-Roadmap für Rechenzentrums-KI-Inferenzlösungen, mit Fokus auf Energieeffizienz, Skalierbarkeit und niedrige Gesamtbetriebskosten.
Mit diesen neuen Produkten unterstreicht Qualcomm seine Rolle als führender Anbieter von KI-Infrastruktur und bietet Unternehmen eine leistungsstarke Basis für den Einsatz generativer KI in großem Maßstab.
Aktuelle Technik-Nachrichten » digitalweek.de