VMware と Nvidia のコラボレーションの新たな章である Project Monterey により、企業は AI や機械学習のワークロードなどのコンピューティング集約型アプリケーションを Nvidia vGPU 上で実行し、VMware vSphere を使用して管理できるようになりました。
従来、AI、ディープラーニング (DL)、機械学習 (ML) のワークロードは CPU に限定されていましたが、Nvidia Virtual Compute Server (vCS) を使用すると、IT 管理者はこれらのワークロードを GPU または仮想 GPU (vGPU) に移動し、vSphere を通じて管理できるようになります。この戦略は、GPU の使用率を向上させ、セキュリティを強化し、管理を簡素化するように設計されています。 「AI、DL、ML はすべて計算負荷が非常に高いワークロードであり、大量のコンピューティングが必要です。通常のハードウェアではこれらの要件に対応できません」と、Nvidia の製品管理担当シニア ディレクターである Raj Rao 氏は、「vSphere 上の Nvidia vGPU を使用して ML および計算ワークフローを実行するためのベスト プラクティス」と題したセッションで述べています。 VMware は Project Monterey を通じて、vSphere 環境での機械学習の開発と提供を最終的に簡素化することを目指しています。現在、彼らは vCS と vGPU を使用してこれらの環境での計算を単純に高速化することを目指しています。 Nvidia GPU には、AI に必要な大規模な行列演算を可能にするテンソル コンピューティング コアが搭載されています。 GPU には、より汎用性の高いマルチタスク コンピューティング ワークロードに対応する高度なコンピューティング コアも搭載されています。これらの GPU は、一般的にすべての一般的な OEM サーバーで利用可能です。企業はオンプレミスまたはクラウドに導入できます。仮想化された GPU は、ハードウェア GPU から機能、パフォーマンス、信頼性を抽出します。 「これは、仮想化のためのハードウェア アクセラレータへの一般的な傾向の一部であり、特殊な機能を専用ハードウェアに移行する傾向が高まっています」と、調査・コンサルティング会社 Gartner のリサーチ ディレクター、ポール デロリー氏は述べています。 vSphere による vGPU の管理 vSphere を通じて vGPU を管理できる新しい機能により、管理者は、同じホスト上で Windows VM と Linux VM を実行するなど、複数のワークロードを有効にすることができます。 VMware のお客様はエッジ コンピューティングで vGPU をますます使用しており、5G GPU コンピューティングは vSphere によって管理される vGPU の新しいユース ケースとなっています。 管理者は vSphere の vGPU を使用してグラフィック ワークロードを高速化することもできます。 VMware Horizon ワークロードをエンコードおよびデコードします。機械学習、ディープラーニング、高性能コンピューティングのワークロードを実行します。拡張現実や仮想現実のアプリケーションを開発します。 vSphere によって管理される vGPU は、vGPU 対応 VM の vMotion などのプロセスの効率も向上させます。管理者は vSphere を使用して GPU と vGPU を管理し、それらの GPU と vGPU を使用して vMotion ワークロードをより効率的に管理できます。 「機械学習のトレーニングや高性能コンピューティングのジョブには数日かかることがあります」とVMwareのシニアエンジニア、Uday Kurkure氏は語る。 サーバーのメンテナンスを行っている場合は、ジョブを停止してサーバーをシャットダウンし、サーバーを再起動してジョブを再開する必要があります。しかし、ジョブをシャットダウンしてサーバーをシャットダウンする代わりに、vMotion を使用してその作業を別のホストに移動し、時間を節約できます。 vSphere 上で Nvidia vGPU を設定する場合は、ホストに Nvidia GPU をインストールします。基盤となる GPU を仮想化するには、ホスト上で実行されているハイパーバイザーに Nvidia vGPU Manager をインストールします。管理者は、同じ仮想 GPU にアクセスできる Windows や Linux などの同じオペレーティング システムで複数の VM を実行できます。これらのホストは、高性能コンピューティングや機械学習のワークロードを迅速かつ効率的に実行できます。 vSphere および仮想環境における機械学習 vGPU を使用すると、より効率的な機械学習トレーニングを提供できます。管理者は、データセンターで他のワークロードを実行しながら機械学習アプリケーションをトレーニングできるため、機械学習アプリケーションのトレーニングに必要な時間が大幅に短縮されます。たとえば、Kurkure 氏によると、トレーニングに最大 56 時間かかる単語予測のための複雑な言語モデリング ワークロードは、vGPU を使用するとわずか 8 時間でトレーニングできるとのことです。ローカル GPU と比較すると、vGPU のトレーニング時間はわずか 4% 短縮されます。しかし、ほとんどの企業にとって、機械学習はまだ初期段階にあります。 「AI や ML ワークロードにとって Project Monterey の利点は、GPU にアクセスできることです」と Delory 氏は述べています。 「しかし現時点では、すべてのホストに GPU をインストールする必要があり、これはコストがかかります。あるいは、ハードウェアを AI または ML ワークロード専用にする必要がありますが、これは複雑でコストがかかります。」 |
<<: 2020年以降に注目すべきエッジコンピューティングの4つのトレンド
>>: Kafka の効率的なストレージ設計をコミックで解説
「Baidu スナップショットの問題に関するいくつかの説明」の元のテキストの一部: 「新しくクロール...
racknerdが米国独立記念日に用意したプロモーションが販売中です。74で終わる比較的大きなトラフ...
従来の研究開発では、コードセキュリティ、マシン(動作環境)セキュリティ、ネットワーク運用・保守セキュ...
実際、2018 年の IoT テクノロジのトレンド予測はすべて、2019 年以降も継続されます。そし...
過去 1 ~ 2 年で、GPT や拡散モデルに代表される大規模言語モデルと生成 AI は、AI に対...
上海富志ネットワークテクノロジー株式会社傘下の VPS ブランドである Fuzhi Host は、C...
クラウドコンピューティングの急速な発展に伴い、インターネットで「クラウド」技術を使用する傾向が高まり...
アプリ運用の初期段階で、アプリプラットフォームを公開し、より多くのユーザーを獲得するにはどうすればよ...
1. マーケティングの背景とターゲット分析: 1. 背景:Weiboは企業ブランドの情報発信プラット...
インターネットは進化しており、検索エンジンも進化しています。多くの SEO コンセプトは時代遅れです...
【捜狐ITニュース】ChinaHR.comはまだ売却されていないが、すでに200人の従業員が解雇を要...
Justhost は私のお気に入りの Web ホストです。Bluehost と Justhost の...
Kubernetes (略して K8s) は、コンテナ化されたアプリケーションの展開、スケーリング、...
トラフィックの急増は、外部リンクの構築だけではなく、コンテンツのリリースも含まれます。トラフィックの...
2003年から運営されているSharktechは、新年から特別低価格サーバーの提供を開始しました。1...