※ 本記事は、Sagar Rawalによる”Announcing limited availability for OCI Compute bare metal instances powered by NVIDIA H100 GPUs“を翻訳したものです。

2023年3月24日


その他の寄稿者: Sanjay PillaiとAlbert Barajas、OCI Product Management; Leo LeungとAkshai Parthasarathy、OCI GTM

 

今日、Oracleは、NVIDIA H100 Tensor Core GPUおよびNVIDIAネットワーキングを搭載したOracle Cloud Infrastructure(OCI)ベア・メタル・コンピュート・インスタンスの限定利用可能を発表しました。

コンピュート・インスタンスのパフォーマンスの向上

OCIベア・メタル・インスタンスは、一貫したパフォーマンス、超低レイテンシ、分離およびコントロールを顧客に提供します。多数のコア数、大量のメモリーおよび高帯域幅を必要とするアプリケーションをサポートします。高パフォーマンスのローカル・ストレージ、高パフォーマンス・コンピューティング(HPC)ストレージ、クラスタ・ネットワーキングおよびメモリーを備えたベア・メタル・インスタンスは、16,384のNVIDIA H100 GPUに拡張できるOCI SuperClusterの一部となります。

NVIDIA H100 Tensor Core GPUは、前世代のA100 GPUと比較して、最大9倍高速なAIトレーニング、AIインファレンシングの30倍高速化、およびHPCアプリケーションの7倍高いパフォーマンスを提供します。

仕様: OCI Computeベア・メタルGPUインスタンス

CPU 4th Gen Intel Xeon processors, 2x 56 Cores
GPU 8x NVIDIA H100 80GB
メモリー  2 TB DDR5
ローカル・ストレージ  16.384 TB NVMe
クラスタ・ネットワーキング  8x 400 Gb/sec

 

高パフォーマンスのコンピューティングと高速クラスタ・ネットワークが「ただうまくいく」ため、OCIは、汎用およびドメイン固有の両方のAIユース・ケースで次世代のAIモデルを構築するための最適なクラウド・プラットフォームとして、いくつかの人工知能(AI)スタートアップと大規模な組織によって検証されています。たとえば、次の顧客はOCI AIインフラストラクチャを使用します。:

  • Adeptは、コンピュータまたはインターネット上のタスクを支援するための強力なAIチームメイトを構築しています。NVIDIA GPUを搭載したOCI Superclusterにより、スタートアップ企業は、一般的なインテリジェンス・ロードマップを迅速に進め、最初の製品を開発できるようになりました。: ナレッジ・ワーカーが毎日使用するツール用の豊富な言語インタフェースです。

  • MosaicMLを使用すると、企業は、セキュアな環境の独自のデータで大規模なAIモデルを開発できます。OCIの世界クラスのインフラストラクチャをMosaicMLプラットフォームと組み合わせることで、あらゆる業界において大規模なジェネレーティブAIを利用しやすく、可能にします。

もっと知りたいですか?

Oracleの機能の詳細を確認し、AIインフラストラクチャに関するオラクルとの対話を今すぐ開始してください。