Dienstag , 28 Oktober 2025

Das digitale Magazin für Deutschland

Qualcomm AI200 und AI250: zwei neue AI-Lösungen für Rechenzentren

Qualcomm Technologies, Inc. hat mit der Vorstellung der neuen AI200- und AI250-Plattformen einen bedeutenden Schritt in Richtung leistungsstarker und kosteneffizienter KI-Infrastruktur für Rechenzentren gemacht. Die beiden chipbasierten Beschleunigerkarten und zugehörigen Rack-Systeme sind speziell für generative KI-Inferenz optimiert und bieten eine Kombination aus hoher Rechenleistung, innovativer Speicherarchitektur und umfassender Softwareunterstützung.

 


 

+++ Unser kostenloser Handy-Schnäppchen Channel ist hier zu finden: Handy Deals und Aktionen (Telegram) oder Mobile Deals (WhatsApp). +++

 


 

Skalierbare Leistung bei niedrigem TCO

Die Lösungen AI200 und AI250 liefern Rack-Scale-Leistung für KI-Inferenz bei einem branchenführenden Verhältnis von Leistung zu Kosten und Energieverbrauch. Die AI200-Plattform ist für große Sprach- und Multimodalmodelle (LLM, LMM) konzipiert und bietet mit 768 GB LPDDR-Speicher pro Karte eine hohe Kapazität bei gleichzeitig niedrigen Kosten. Dies ermöglicht eine flexible und skalierbare Nutzung für verschiedenste KI-Anwendungen.

Speicherinnovation mit AI250

Die AI250-Lösung geht noch einen Schritt weiter: Sie basiert auf einer neuartigen Near-Memory-Computing-Architektur, die eine mehr als zehnfache Steigerung der effektiven Speicherbandbreite bei deutlich reduziertem Energieverbrauch ermöglicht. Diese Architektur erlaubt eine disaggregierte Inferenz, bei der Hardware effizienter genutzt und gleichzeitig die Anforderungen an Leistung und Kosten erfüllt werden.

Technische Ausstattung und Sicherheit

Beide Rack-Systeme verfügen über direkte Flüssigkeitskühlung zur thermischen Optimierung, PCIe-Schnittstellen für vertikale Skalierung, Ethernet für horizontale Skalierung sowie Funktionen für vertrauliches Rechnen, um sensible KI-Workloads sicher zu verarbeiten. Die maximale Leistungsaufnahme pro Rack liegt bei 160 kW.

Software-Ökosystem für einfache Integration

Ein zentrales Element der neuen Plattformen ist die umfassende Softwareunterstützung. Qualcomm bietet eine hyperscaler-taugliche AI-Software-Stack, die von der Anwendungsebene bis zur Systemsoftware reicht. Sie unterstützt führende ML- und Inferenz-Frameworks sowie generative KI-Modelle und erlaubt die einfache Integration und Verwaltung bereits trainierter Modelle. Entwickler profitieren von Tools wie der Efficient Transformers Library und der Qualcomm AI Inference Suite, die unter anderem die Ein-Klick-Integration von Hugging-Face-Modellen ermöglichen.

Roadmap und Verfügbarkeit

Die kommerzielle Einführung der AI200-Plattform ist für 2026 geplant, die AI250 folgt 2027. Qualcomm verfolgt eine jährliche Innovations-Roadmap für Rechenzentrums-KI-Inferenzlösungen, mit Fokus auf Energieeffizienz, Skalierbarkeit und niedrige Gesamtbetriebskosten.

Mit diesen neuen Produkten unterstreicht Qualcomm seine Rolle als führender Anbieter von KI-Infrastruktur und bietet Unternehmen eine leistungsstarke Basis für den Einsatz generativer KI in großem Maßstab.

Weiterlesen!

Synchronisation zwischen mehreren Endgeräten

Iridium und Qualcomm integrieren Satellitenkommunikation in Snapdragon Mission Tactical Radio

Iridium Communications Inc. und Qualcomm Technologies Inc. haben die erfolgreiche Integration von Iridium®-Datendiensten in das …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert