※ 本記事は、Sagar Rawalによる”Announcing general availability for OCI Compute bare metal instances powered by NVIDIA H100 GPUs“を翻訳したものです。
2023年9月21日
追加の貢献者: Sanjay Pillai and Andrew Butterfield, OCI Product Management; Leo Leung and Akshai Parthasarathy, OCI GTM
本日、OracleはNVIDIA H100 Tensor Core GPUおよびNVIDIAネットワーキングを搭載したOracle Cloud Infrastructure (OCI)ベア・メタル・コンピュート・インスタンスの利用可能を発表します。
コンピュート・インスタンスのパフォーマンスの向上
OCIベア・メタル・インスタンスは、一貫したパフォーマンス、超低レイテンシ、分離および制御を顧客に提供します。多数のコア数、大量のメモリーおよび高帯域幅を必要とするアプリケーションをサポートします。高パフォーマンスのローカル・ストレージ、高パフォーマンス・コンピューティング(HPC)ストレージ、クラスタ・ネットワーキングおよびメモリーを備えたベア・メタル・インスタンスは、数万のNVIDIA H100 GPUまで拡張できるOCI SuperClusterの一部となります。
新しいBM.GPU.H100.8インスタンスのそれぞれに、8つのNVIDIA H100 GPUがあります。NVIDIA H100 GPUは、前世代のNVIDIA A100 Tensor Core GPUと比較して、最大9倍高速なAIトレーニング、AI推測の30倍高速化、およびHPCアプリケーションの7倍高いパフォーマンスを提供します。
このNVIDIA H100 GPU対応サーバーを、2つのIntel Sapphire Rapids CPUとペアにしました。これにより、AIトレーニングおよび推論ワークロードの前処理を効率的に処理するために、サーバーは合計112の高周波数CPUコアをベース・クロック2.0 GHzおよび最大ターボ・クロック3.8 GHzとともに提供します。Intel Sapphire Rapidsは、PCIE帯域幅の4倍と、前世代に組み込まれたPCIEレーン数の2倍を提供します。市場投入までの期間は私たちにとって非常に重要でした。IntelのSapphire Rapids CPUは、開発スケジュールに最も適しており、NVIDIA H100 GPUとペアリングする高いパフォーマンスを発揮します。
仕様: OCI Compute BM.GPU.H100.8 インスタンス
| CPU | 4th Gen Intel Xeon processors, 2x 56 Cores |
| GPU | 8x NVIDIA H100 80GB Tensor Core |
| メモリー | 2 TB DDR5 |
| ローカル・ストレージ | 16x 3.84 TB NVMe |
| クラスタ・ネットワーキング | 8x 400 Gb/sec |
高パフォーマンスのコンピューティングと高速クラスタ・ネットワークが「機能している」ため、OCIは、汎用およびドメイン固有の両方のAIユース・ケースで次世代のAIモデルを構築するための最適なクラウド・プラットフォームとして、複数のAIスタートアップや大規模な組織によって検証されています。たとえば、次の顧客はOCI AIインフラストラクチャを使用します。:
- Adeptは、コンピュータまたはインターネット上のタスクを支援する強力なAIチームメイトを構築しています。NVIDIA GPUを搭載したOCI Superclusterにより、スタートアップ企業は、一般的なインテリジェンス・ロードマップを迅速に進め、最初の製品を開発できるようになりました。ナレッジ・ワーカーが毎日使用するツール用の豊富な言語インタフェースです。
- MosaicMLを使用すると、企業は、セキュアな環境の独自のデータで大規模なAIモデルを開発できます。OCIの世界クラスのインフラストラクチャとMosaicMLプラットフォームを組み合わせることで、大規模世代のAIがあらゆる業界でアクセス可能になります。
もっと知りたいですか?
Oracleの機能の詳細を確認し、AIインフラストラクチャに関するオラクルとの対話を今すぐ開始してください。
