Seit Jahren haben künstliche Intelligenz (KI) und maschinelles Lernen (ML) Branchen umgestaltet, das Leben verbessert und komplexe globale Probleme gelöst. Diese transformativen Kräfte, die früher als HPC (High-Performance Computing) bezeichnet wurden, haben den digitalen Wandel in Unternehmen aller Größenordnungen vorangetrieben und die Produktivität, Effizienz und Problemlösungskompetenz gesteigert.
Das Aufkommen hochinnovativer generativer KI-Modelle (GenAI), die auf Deep Learning und neuronalen Netzen beruhen, sorgt für einen weiteren Umbruch. Die zunehmende Nutzung dieser daten- und rechenintensiven ML- und GenAI-Anwendungen stellt beispiellose Anforderungen an die Infrastruktur von Rechenzentren, die eine zuverlässige Datenübertragung mit hoher Bandbreite und niedriger Latenz, eine deutlich höhere Verkabelungs- und Rack-Stromdichte sowie fortschrittliche Kühlmethoden erfordern.
Im Zuge der Vorbereitung von Rechenzentren auf GenAI benötigen Anwender innovative, robuste Netzwerkinfrastrukturlösungen, mit denen sie Back-End-, Front-End- und Speichernetzwerke für komplexe HPC-Umgebungen (High-Performance Computing) einfach entwerfen, bereitstellen und skalieren können.
NVIDIA Deep Learning Inferenz-Plattform Beispiel
Beschleunigte GenAI- und ML-Modelle bestehen aus Training (Erlernen neuer Fähigkeiten) und Inferenz (Anwendung der Fähigkeiten auf neue Daten). Diese Deep-Learning- und neuronalen Netzwerke ahmen die Architektur und Funktion des menschlichen Gehirns nach, um auf der Grundlage der Analyse von Mustern, Nuancen und Merkmalen in riesigen, komplexen Datensätzen zu lernen und neue, originelle Inhalte zu erzeugen. Große Sprachmodelle (LLM) wie ChatGPT und Google Bard sind Beispiele für diese GenAI-Modelle, die auf riesigen Datenmengen trainiert werden, um plausible Sprachantworten zu verstehen und zu erzeugen. Allzweck-CPUs, die Steuer- und Eingabe-/Ausgabeoperationen nacheinander ausführen, können nicht effektiv große Datenmengen parallel aus verschiedenen Quellen abrufen und schnell genug verarbeiten.
Daher stützen sich beschleunigte ML- und GenAI-Modelle auf grafische Verarbeitungseinheiten (GPUs), die eine beschleunigte Parallelverarbeitung nutzen, um Tausende von Berechnungen mit hohem Durchsatz gleichzeitig auszuführen. Die Rechenleistung eines einzigen GPU-basierten Servers kann die Leistung von Dutzenden herkömmlicher CPU-basierter Server erreichen!
Unsere GenAI-Experten liefern die dringend benötigte Klarheit zu diesem sich schnell verändernden Thema und zeigen anhand von Beispielen, wie Sie Ihre Netzwerkarchitektur so anpassen können, dass sie den Anforderungen an Training und Inferencing optimal gerecht wird.
Mehr lesenSiemon steht an der Spitze der GenAI-Revolution. In Zusammenarbeit mit unseren Kunden und Partnern, die bei der Bereitstellung dieser Technologien an vorderster Front stehen, haben wir eine Reihe von KI-fähigen Lösungen der nächsten Generation entwickelt, die Sie bei Ihren Implementierungen unterstützen können.
Entdecken Sie die hochmodernen KI-fähigen Lösungen von Siemon, die für neue Rechenzentrumsarchitekturen entwickelt wurden. Entdecken Sie leistungsstarke Verkabelung und Konnektivität für nahtlose KI- und HPC-Workloads.
Mehr lesen