Oracle setzt in der Cloud einmal mehr neue Maßstäbe sowohl hinsichtlich Leistung als auch Kosten: High-Performance Computing (HPC) in der Oracle Cloud-Infrastruktur liefert nämlich die gleiche Leistung wie On-Premises – mit dem zusätzlichen Vorteil sofortiger Bereitstellung und dem Wegfall von Anschaffungs- und Wartungskosten für Hardware.
High Performance Computing (HPC) in der Oracle Cloud mit Intel-Technologie liefert kosteneffizient die gleiche Leistung wie On-Premises-Umgebungen.
Vor diesem Hintergrund haben viele Unternehmenskunden entschieden, ihre HPC-Workloads in die Oracle Cloud zu verlagern. Berichte dazu finden Sie etwa unter Nissan Moves to Oracle Cloud und Oracle Cloud Infrastructure Behind World's Fastest Supercomputer. Es sind Workloads aus allen möglichen Branchen, die inzwischen in der Oracle Cloud ausgeführt werden; zu den häufigsten Arten von Anwendungen gehören Computational Fluid Dynamics (CFD) und Crash-Simulation-Anwendungen.
"Wir bei Oracle Cloud möchten die Leistungsfähigkeit des Supercomputings jedem Ingenieur und Wissenschaftler zur Verfügung stellen", sagt Karan Batta, Vice President von Oracle Cloud Engineering. "Um diese Vision zu verwirklichen, streben wir danach, die beste Leistung in der Cloud für unsere High-Performance Computing (HPC)-Kunden zu erreichen, indem wir in Technologien wie Bare-Metal-Computing, Hochleistungsnetzwerke und NVMe-SSD-basierte Speicher mit sehr hohem Durchsatz investieren. Diese zentralen Oracle Cloud-Technologien und Spitzenangebote ermöglichen es uns, eine berechenbare Leistung für HPC-Anwendungen zu liefern.“
Die Basis für ein HPC-Cluster bilden Bare-Metal Instanzen mit Intel Prozessoren und Remote Direct Memory Access (RDMA) mit extrem niedrigen Latenzzeiten (1,7 Mikrosekunden). Unser HPC-Server - BM.HPC2.36 - wird von zwei Intel Xeon Gold 6154-Prozessoren mit 36 Kernen angetrieben, die jeweils mit 3,70 GHz arbeiten. BM.HPC2.36 Instanzen bieten Performance auf On-Premises-Niveau bei einem hochattraktiven Preis/Leistungs-Verhältnis.
Wir sind kürzlich eine Partnerschaft mit Intel eingegangen, um Computer-Aided-Engineering (CAE)-Workloads auf unserer HPC Cluster Network-Plattform auszuführen. Die folgenden gängigen Anwendungen, die für CFD- und Crash-Simulation-Analysen verwendet werden, haben wir kürzlich einem Benchmarking unterzogen:
• OpenFOAM
• LS-DYNA
• Ansys Fluent
Hinsichtlich aller Benchmarks erreicht das HPC-Cluster Network von Oracle die Leistung von On-Premises-Umgebungen sowie eine effiziente Skalierung sowohl für große als auch für kleine Modelle erreichen.
"Das Bare-Metal-HPC-Angebot von Oracle Cloud ist ein großartiges Beispiel dafür, wie Intel und Oracle führende HPC-Lösungen für die Cloud zusammenbringen", so Trish Damkroger, GM und Vice President of High Performance Computing bei der Intel Corporation. "Das auf der Intel Xeon-Technologie basierende Bare-Metal-HPC-Angebot von Oracle bietet leistungsstarke Cluster, die eine außergewöhnliche Performance für ein breites Spektrum an HPC-Workloads in jeder Größenordnung erbringen können.“
Um die Leistungsfähigkeit von OpenFOAM zu demonstrieren, wurde ein 42M-Motorradmodell wegen seiner starken Verbreitung und leichten Umsetzung gewählt. Das Modell wurde über einen 16-Knoten BM.HPC2.36-Cluster mit RDMA unter Verwendung der folgenden Eingaben betrieben:
• OpenFOAM v2006
• Hyperthreading aktiviert
• 36 Prozesse pro Knoten
• Intel MPI 2019.4.243
• NFS File Server
Die Ergebnisse des Modells auf Oracle Cloud zeigen eine optimale lineare Skalierung.
Der Performance-Vergleich bezieht sich auf die Leistung einer On-Premises-Umgebung mit Intel Xeon Gold 6154-Prozessoren und einem Intel OPA-Netzwerk mit 100 Gbps. Nehmen wir die On-Premise-Umgebung als Ausgangsbasis für den relativen Vergleich, so zeigt die folgende Abbilung, dass der Oracle Cluster die On-Premise-Umgebung bei höherer Skalierung übertraf.[CO4]
Das Modell LS-DYNA Car2Car wurde gewählt, weil es sich um ein kleineres Modell handelt, das ein hohes Maß an Netzwerk-Traffic verursacht und das Netzwerk stark belastet. Das Modell wurde über einen 16-node HPC-Cluster mit RDMA-Netzwerk unter Verwendung der folgenden Eingaben ausgeführt:
• LS-DYNA R10.1 oder R11 mit AVX2-CPU-Optimierung
• Hyperthreading aktiviert
• 36 Prozesse pro Node
• Intel MPI 2018.3.222
Die relative Leistung, die in der folgenden Grafik dargestellt ist, bietet einen Performance-Vergleich mit einer On-Premises-Umgebung mit Intel Xeon Gold 6154-Prozessoren und einem 100-Gbit/s-Intel-OPA-Netzwerk. Die Oracle Cloud erzielte eine bessere Leistung von 36 bis 144 Cores und fiel bei einer höheren Anzahl von Cores leicht ab.

Ansys Fluent ist eine der am häufigsten verwendeten CFD-Anwendungen und enthält eine Fülle von Benchmarking-Modellen. Wir haben das Modell Aircraft Wing 14m gewählt, um die Performance und Skalierbarkeit kleiner Modelle auf unserem HPC Cluster Network darzustellen. Das Modell lief über einen 16-node BM.HPC2.36-Cluster mit RDMA unter Verwendung der folgenden Eingaben:
• Fluent R1 2020
• Hyperthreading aktiviert
• 36 Prozesse pro Node
• Intel MPI 2018.3.10
• NFS File Server
Die Ergebnisse zeigen eine optimale lineare Skalierung.
Die Performance wurde auch mit einer On-Premises-Umgebung mit Intel Xeon Gold 6154-Prozessoren und einem 100 Gbps Intel OPA-Netzwerk verglichen. Wie aus der folgenden Abbildung hervorgeht, erreichte Oracle Cloud eine vergleichbare oder bessere Performance als der On-Premise-Cluster.
Kontakt:
Ein spannendes Thema, über das ich gerne mit Ihnen spreche, per E-Mail, LinkedIn, Xing oder Twitter. Cesar Ortiz, Principal Solution Engineer.