Direkt zum Inhalt wechseln

Die Revolution der generativen KI ist da.

Sind Sie bereit? Wir sind.

 

Seit Jahren haben künstliche Intelligenz (KI) und maschinelles Lernen (ML) Branchen umgestaltet, das Leben verbessert und komplexe globale Probleme gelöst. Diese transformativen Kräfte, die früher als HPC (High-Performance Computing) bezeichnet wurden, haben den digitalen Wandel in Unternehmen aller Größenordnungen vorangetrieben und die Produktivität, Effizienz und Problemlösungskompetenz gesteigert.

Das Aufkommen hochinnovativer generativer KI-Modelle (GenAI), die auf Deep Learning und neuronalen Netzen beruhen, sorgt für einen weiteren Umbruch. Die zunehmende Nutzung dieser daten- und rechenintensiven ML- und GenAI-Anwendungen stellt beispiellose Anforderungen an die Infrastruktur von Rechenzentren, die eine zuverlässige Datenübertragung mit hoher Bandbreite und niedriger Latenz, eine deutlich höhere Verkabelungs- und Rack-Stromdichte sowie fortschrittliche Kühlmethoden erfordern.

Fortgeschrittene KI erfordert ein Umdenken bei der Gestaltung von Rechenzentren

Im Zuge der Vorbereitung von Rechenzentren auf GenAI benötigen Anwender innovative, robuste Netzwerkinfrastrukturlösungen, mit denen sie Back-End-, Front-End- und Speichernetzwerke für komplexe HPC-Umgebungen (High-Performance Computing) einfach entwerfen, bereitstellen und skalieren können.

Generative KI NVIDIA

NVIDIA Deep Learning Inferenz-Plattform Beispiel

 

Beschleunigte GenAI- und ML-Modelle bestehen aus Training (Erlernen neuer Fähigkeiten) und Inferenz (Anwendung der Fähigkeiten auf neue Daten). Diese Deep-Learning- und neuronalen Netzwerke ahmen die Architektur und Funktion des menschlichen Gehirns nach, um auf der Grundlage der Analyse von Mustern, Nuancen und Merkmalen in riesigen, komplexen Datensätzen zu lernen und neue, originelle Inhalte zu erzeugen. Große Sprachmodelle (LLM) wie ChatGPT und Google Bard sind Beispiele für diese GenAI-Modelle, die auf riesigen Datenmengen trainiert werden, um plausible Sprachantworten zu verstehen und zu erzeugen. Allzweck-CPUs, die Steuer- und Eingabe-/Ausgabeoperationen nacheinander ausführen, können nicht effektiv große Datenmengen parallel aus verschiedenen Quellen abrufen und schnell genug verarbeiten.

Daher stützen sich beschleunigte ML- und GenAI-Modelle auf grafische Verarbeitungseinheiten (GPUs), die eine beschleunigte Parallelverarbeitung nutzen, um Tausende von Berechnungen mit hohem Durchsatz gleichzeitig auszuführen. Die Rechenleistung eines einzigen GPU-basierten Servers kann die Leistung von Dutzenden herkömmlicher CPU-basierter Server erreichen!

NVIDIA-2024_Logo_cropped

NVIDIA Solution Advisor

Siemon Optische Patching-Lösungen für GenAI-Netzwerke mit NVIDIA Accelerated Computing angekündigt.

Mehr erfahren

.

TechTalk auf Abruf: Welche Auswirkungen hat die generative KI auf Ihre Infrastruktur?

Unsere GenAI-Experten liefern die dringend benötigte Klarheit zu diesem sich schnell verändernden Thema und zeigen anhand von Beispielen, wie Sie Ihre Netzwerkarchitektur so anpassen können, dass sie den Anforderungen an Training und Inferencing optimal gerecht wird.

Mehr lesen

Neue Netzwerkarchitekturen und Anwendungen für KI-Rechenzentren

Entdecken Sie die hochmodernen KI-fähigen Lösungen von Siemon, die für neue Rechenzentrumsarchitekturen entwickelt wurden. Entdecken Sie leistungsstarke Verkabelung und Konnektivität für nahtlose KI- und HPC-Workloads.

Mehr lesen
Benötigen Sie Unterstützung bei der Integration von generativer KI in Ihre Netzwerkinfrastruktur? Wir haben die Lösung für Sie.
Buchen Sie Ihre kostenlose Beratung
Brauchen Sie Hilfe?
siemon logo
eKatalog Partner-Portale Einen Vertriebspartner finden Einen Installateur finden
Siemon GPS Logo
webTRAC™ Login Ticket Request head to siemon.com