※これはIntroducing the best platform for AI workloads – OCI Kubernetes Engine (OKE)の翻訳です

AI の急速な進歩により、テクノロジー環境は変革を遂げつつあります。お客様は Oracle AI Services を活用し、柔軟でコスト効率に優れた高性能なインフラストラクチャに洗練されたモデルを導入しています。トレーニングおよび推論のワークロードの導入には、現在 Oracle Cloud Infrastructure (OCI) Kubernetes Engine (OKE) と呼ばれる当社のマネージド Kubernetes プラットフォームの採用が増加しています。

本日、お客様が AI および機械学習 (ML) ワークロードの需要をさらに満たせるよう、OKE のアップデートをいくつかご紹介します。

AI およびエンタープライズ ワークロードに OKE が適している理由

OKE には、次の機能と利点があります。

  • AI ワークロード向けに最適化:OKE は、コンテナ環境向けの組み込みの可観測性とヘルス チェックを提供し、現在・過去の RDMA および GPU エラーを追跡して、GPU を使用するお客様の操作性を向上させます。
  • Ubuntu のサポート:Ubuntu は最も人気のある Linux ディストリビューションの 1 つであり、GPU ワークロードを実行するお客様の標準 OS となっています。OKE は、worker nodeのサポート対象イメージのリストに Ubuntu イメージを追加しています。
  • 包括的なプラットフォーム:OKE は、AI ワークロードの実行に合わせてカスタマイズされた包括的なCloud Nativeサービス スイートによって強化されています。OCI DevOps を使用してイメージを構築およびテストし、Container Registry からデプロイし、Autonomous Database と統合するなど、さまざまな機能を備えています。
  • OKE は幅広い AI インフラストラクチャをサポート:OCI AI インフラストラクチャは、推論、トレーニング、AI アシスタントなどの AI ワークロードに、最高レベルのパフォーマンスと価値を提供します。
  • セキュリティ by デザイン:Oracle Cloud Guard を搭載した OKE は、セキュリティ ポリシーの自動適用、コンテナ レベルのセキュリティ問題の特定、迅速な修復を顧客に提供する、安全で管理されたコンテナ ランタイム環境を提供するように設計されています。

OKEは拡張性を考慮して導入され、多くの大手顧客をサポートする信頼できるプラットフォームです。現在、Oracle の AI サービスの多くは OKE 上で実行されており、何千ものお客様が OKE 上で数百万の GPU コアと CPU コアを使用しています。

 

詳細を知るには
この記事はスナップショットにすぎません。新しい OKE には、このブログで紹介しきれないほど多くの新機能と拡張機能があります。詳細については、次のリソースをご覧ください:

OCI Kubernetes Engine
OKE ドキュメント
AI Resource Hub
Oracle Cloud の無料トライアルで今すぐ OCI を使い始めましょ