半世紀にわたって続いたムーアの法則により、必然的に多くの人々は、常に同じコストでより強力なコンピューティング リソースを入手できるという幻想を抱くようになりました。実際、ムーアの法則は、ゴードン・ムーアが 1960 年代に経験した結果に過ぎず、自然の法則ではありません。企業がデジタル変革を加速するにつれ、コンピューティング能力に対する需要が急増し、チップ製造プロセスは物理的な限界に近づき続けています。汎用チップのコストが上昇しているため、ムーアの法則の実装が困難になっています。 そのため、「ポスト・ムーア時代」を見据えた企業は、高品質な開発を確保しながらデジタルトランスフォーメーションを推進できる性能とコストの関係を維持するための実現可能な技術的ルートを模索し始めています。 10 年以上前、Amazon Web Services は、クラウド インフラストラクチャにおける汎用チップの非効率的なパフォーマンスとエネルギー損失に気づき始め、クラウド コンピューティング向けにカスタマイズされたチップとハードウェアに注目し始めました。 Amazon Web Services は、クラウド環境の複雑さに関する深い理解と、基盤となるテクノロジーが上位レベルのアプリケーションに与える影響に関する深い洞察に基づいて、独自のチップを作成する道を歩み始めました。 「十分では十分ではない」 クラウドコンピューティング向けの自社開発チップの開発の重要性について、Amazon Web Servicesの最高技術責任者であるWerner Vogels氏は、2022 re:Invent Global Conferenceで次のように述べた。「十分な品質というのは、決して十分ではない」。たとえば、開発者が強力な GPU を使用して機械学習モデルの構築からトレーニング、推論までのプロセス全体を実行する場合、GPU がさまざまなタスクに対して最適化されていないため、パフォーマンスの低下は想像を超えることが多く、開発者は高いハードウェアおよびエネルギー コストも負担する必要があります。 クラウド コンピューティングのユーザーは、必然的にさらに強力なコンピューティング能力を追求し続けるでしょうが、「量と価格の両方の増加」を望むユーザーはいません。このため、Amazon Web Services は、今世紀初頭からクラウド コンピューティング向けのカスタマイズされたハードウェアの開発を開始し、2006 年に最初のAmazon Elastic Compute Cloud (Amazon EC2)インスタンスをリリースしました。それ以来、クラウドベースのビジネスの多様性と複雑さが増し、コスト削減と効率性の向上を求めるユーザーの要求が高まるにつれて、Amazon Web Services は、基盤となるテクノロジーのカスタマイズされたイノベーションが、クラウド コンピューティングの急速な発展に不可欠な要素となることを認識してきました。 2013 年、Amazon Web Services はクラウド サーバー仮想化エンジンである Amazon Nitro システムを発表し、基盤となるクラウド コンピューティング技術分野で業界をリードする 10 年の幕開けとなりました。アマゾン ウェブ サービスは、2015 年に Annapurna Labs を買収した後、自社開発チップの急速な発展の道を歩み始めました。同社は2017年までに、仮想化システム、クラウドネイティブプロセッサ、機械学習トレーニングおよび推論チップなど、数多くの自社開発チップを開発しました。 Amazon Web Services の自社開発チップにより、Amazon EC2 インスタンスの数が急速に増加しました。現在、Amazon EC2 インスタンスには 600 種類以上あり、ほぼすべてのオペレーティング システムとアプリケーションをカバーしているため、何百万もの顧客が Amazon Web Services 上で最も適切なソリューションを見つけて、厳しいビジネス ニーズを満たすことができます。 仮想化によるパフォーマンスの低下を排除 仮想化カスタム チップの Nitro シリーズは、Amazon Web Services が独自の「チップ」を独自に作成するための出発点です。クラウド コンピューティングの基礎である仮想化は、かつてはコンピューティング リソースの 30% を占めていました。つまり、ユーザーが購入したコンピューティング パワーの約 3 分の 1 が、実質的なコンピューティング パワーのリターンを得ることなく「チケット」になってしまったのです。 Nitro の重要な目標の 1 つは、基盤となるテクノロジーによる仮想化パフォーマンスの低下の問題を解決することです。 Nitro はカスタマイズされたチップと独立したモジュール設計を通じて、クラウド コンピューティング システムのすべての仮想化機能を引き受け、仮想化によるパフォーマンスの低下を 1% 未満 (ほぼ無視できるレベル) に抑え、ユーザーが購入したインスタンスのコンピューティング能力をほぼ 100% ビジネスに活用できるようにします。同時に、Nitro のセキュリティ チップは、ユーザーにハードウェア レベルのセキュリティ メカニズムを提供します。これは、ネットワークとストレージの分離による独立したセキュリティ チャネルを実現するだけでなく、データ転送のあらゆる側面でハードウェア レベルの暗号化を実装し、ユーザーがより強力なデータ セキュリティを実現できるようにします。 Amazon Web Services は 2013 年から 2020 年にかけて Nitro を第 4 世代にアップデートしており、Nitro のアップグレードは現在も継続中です。昨年の 2022 re:Invent Global Conference で、Amazon Web Services は新しい第 5 世代 Nitro を発表し、データ処理機能がさらに向上し、レイテンシが短縮されました。パフォーマンスの向上をエネルギー消費率に換算すると、第 5 世代 Nitro はワットあたりのパフォーマンスが 40% 向上し、ユーザーに別の次元でより高いコスト パフォーマンスをもたらします。 これに伴い、第 5 世代 Nitro を搭載した新しいインスタンス Amazon EC2 C7gn もリリースされました。最新世代の Nitro のサポートにより、C7gn は現在の世代の C6gn と比較してネットワーク処理能力が強化されており、すべての Amazon EC2 ネットワーク最適化インスタンスの中で最高のネットワーク帯域幅とパケット転送パフォーマンスを提供できるインスタンスとなっています。 C7gn インスタンスは、コンピューティング パフォーマンスが最大 25% 向上し、暗号化パフォーマンスが最大 2 倍向上するため、ユーザーは Amazon EC2 で最も要求の厳しいネットワーク集約型ワークロードのコストを最適化し、スケーラビリティを向上させることができます。 Amazon EC2 C7gn インスタンス 自社開発チップの継続的なアップグレードと大規模なアプリケーションにより、ユーザーに高いコスト効率をもたらします。 Nitro は、ユーザーがコンピューティング能力の損失に別れを告げるのに役立ちますが、ユーザーはどのようにして既存のコンピューティング能力を使用してムーアの法則を上回ることができるのでしょうか? Amazon Web Services の CEO である Adam Selipsky 氏はかつてこう言っています。「あらゆるワークロードのコンピューティングのコスト効率を根本から改善したいのであれば、インスタンスを根本から考え直す必要があります。この目標を達成するには、基盤となるテクノロジーを深く掘り下げて、チップに直接取り組む必要があります。」最終的に、Amazon Web Services が出した答えは、ARM アーキテクチャに基づく汎用クラウドネイティブ プロセッサである Graviton でした。 X86 アーキテクチャと比較すると、Graviton は低コストと高コア密度のため、高コンピューティング密度の分野でより多くの利点があり、エネルギー消費性能も優れています。しかし、当時、ARM アーキテクチャは、クラウド コンピューティングに基づくエンタープライズ レベルのアプリケーションの分野では画期的な進歩を遂げていませんでした。 ARM アーキテクチャを採用するということは、Amazon Web Services がユーザーベースがほとんどない領域に参入しなければならないことを意味します。 Amazon Web Services は 2018 年に第 1 世代の Graviton プロセッサをリリースし、その後 2020 年に Graviton 2 をリリースして大規模なアプリケーションを実現し、ARM プロセッサのエンタープライズ レベル アプリケーションのベンチマークを確立しました。同時に、Graviton の各世代ではパフォーマンスが大幅に向上しています。 2021年に発表されたGraviton 3は、前世代と比較してシングルコア性能が25%向上し、浮動小数点性能が2倍に向上しています。さらに、ARM アーキテクチャを使用しているため、x86 インスタンスと比較して最大 60% のエネルギー消費削減も実現します。 近年、人工知能や自動運転などの新興アプリケーションの負荷とコスト効率がハイパフォーマンスコンピューティングに最適化されたインスタンスに対して飛躍的に高まっていることから、Amazon Web Servicesは、浮動小数点およびベクトル命令演算に特化して最適化されたGraviton 3Eと、それがサポートするハイパフォーマンスコンピューティングに最適化されたインスタンスHpc7gを2022 re:Invent Global Conferenceでリリースしました。 Hpc7g は、現世代の Hpc6a インスタンスに比べて 20% のパフォーマンス向上を実現し、最大数万のコアを備えた高性能コンピューティング クラスターで複雑な計算を実行できるようにすることで、計算流体力学、気象シミュレーション、ゲノミクス、分子動力学などの高性能コンピューティング ワークロードに超高コスト パフォーマンスを提供し、難易度の上昇という問題にさらに対処し、高性能コンピューティング ワークロードのコストを削減します。 ユーザーに高いコスト効率を提供し、ユーザーが Graviton インスタンスを採用しやすくするために、Amazon Web Services は Graviton 上で 20 を超えるマネージド サービスを実行しており、この数は増え続けています。これらのサービスには、よく使用されるAmazon Relational Database Service 、 Amazon Aurora 、 Amazon ElastiCache 、 Amazon MemoryDB for Redis 、 Amazon OpenSearch 、 Amazon EMR 、 Amazon Elastic Kubernetes Service 、 Amazon Lambdaが含まれます。マネージド サービスにより、顧客がアプリケーションを Graviton に移行する際の複雑さが大幅に軽減され、移行にかかる時間が数日から数分に短縮されます。また、Graviton インスタンスに移行することでコスト効率が最大 40% 向上します。 機械学習のあらゆる側面を扱うための専門的な「コア」 機械学習が徐々に超大規模モデルの時代に入るにつれ、数十億パラメータのモデルが至る所に存在し、計算能力を圧迫するブラックホールとなっています。これによって消費される計算能力とコストも、企業を圧倒する原因となります。 機械学習で広く使用されている汎用チップは、約 2 年ごとにパフォーマンスを 2 倍にすることができますが、それでもトレーニング モデルの複雑さの増大に追いつくことはできません。 Amazon Web Services は、機械学習向けに特別に最適化されていない GPU は、長期的にはクラウド上で機械学習タスクを処理できないと考えています。唯一の解決策は、分散マルチプロセッサを使用して、ネットワーク上でモデルを共同で計算することです。この目的のために、Amazon Web Services は、機械学習の 2 つの側面をターゲットに、トレーニング用の Amazon Trainium チップと推論用の Amazon Inferentia チップをリリースしました。 2022 年 10 月、Amazon Web Services は、クラウド内の高性能モデル向けに特別に構築された Trainium ベースの Amazon EC2 Trn1 インスタンスをリリースしました。最大 16 個の Trainium チップを搭載でき、512 GB の高帯域幅メモリと 800 Gbps のネットワーク帯域幅を備えています。 2022 re:Invent Global Conference で、Amazon Web Services は、ネットワーク帯域幅が 1.6Tbps に増加した拡張 Trn1n インスタンスをリリースしました。超大規模クラスター上に 10,000 個を超える Trainium チップを構築することで、超大規模モデルの並列トレーニングが可能になります。 Amazon Web Services は 2018 年に推論用の Inferentia チップをリリースし、翌年には対応する Amazon EC2 Inf1 インスタンスをリリースしました。これにより、ユーザーは低レイテンシで低コストの推論を実現できます。 2022 re:Invent Global Conference において、Amazon Web Services は、ディープラーニング モデルの規模と複雑さの急激な増大に対応するため、次世代推論チップ Inferentia 2 と、このチップをベースにした Amazon EC2 Inf2 インスタンスをリリースしました。 Inf2 インスタンスは、大規模な Transformer モデルの分散推論専用に構築された唯一のインスタンスです。 Inf1 インスタンスと比較すると、Inf2 インスタンスではスループットが 4 倍、レイテンシが 1/10、ワットあたりのパフォーマンスが 45% 向上しています。 Inf2 インスタンスは、最大 1,750 億のパラメータを持つ大規模なモデルを実行できます。これは、GPT-3、Mask R-CNN、ViT などの超大規模で複雑なモデルには十分です。 10年にわたる先導を経て、ハードウェアのイノベーションは加速期に入った。 アメリカのコンピュータ科学者でチューリング賞受賞者のアラン・ケイ氏はかつてこう言った。「ソフトウェアに真剣に取り組む人は、自分のハードウェアを自分で作るべきだ。」 Amazon Web Services の 10 年間のイノベーションは、この声明と一致しています。長年にわたる独自のチップとハードウェアの徹底的な研究開発を通じて、基盤技術レベルで大きな差別化された優位性を確立しました。 近年、クラウド コンピューティングにおけるカスタマイズされたハードウェア イノベーションの重要性が注目され、認識される企業が増えています。 Amazon Web Services の最高技術責任者である Werner Vogels 氏は、「2023 年には、専用チップの使用が急速に増加し、ワークロードはハードウェアの最適化を活用してパフォーマンスを最大化し、エネルギー消費とコストを削減するようになる」と予測しています。これはまた、カスタマイズされたハードウェアがクラウド コンピューティング パワーの最も信頼性の高い成長エンジンの 1 つになり、ユーザーがコストとパフォーマンスの面で優れたリターンを得て、高品質のエンタープライズ開発をサポートするデジタル機能を獲得するのに役立つことを意味します。 |
<<: 調査によると、マルチクラウドの最大の推進要因は依然としてコスト
>>: API サーバー ソースコード分析: エントリ ポイント分析
6月末のBaiduの大規模アップデートの洗礼の後、Taobaoの顧客の一人として、私は幸運にもBai...
[[403506]]背景クラウド時代の到来とともに、データベースもクラウド データベース時代を迎え始...
Dawang Data は、618 の年半ばの特別プロモーションを実施します。すべてのクラウド サー...
1. 大規模クラウドネットワークの課題1.1 ネットワーク単一点問題従来のクラウド ネットワークでは...
簡単に言えば、Web クローラーは、使用する「オフライン読み取り」ツールに似ています。オフラインであ...
9月4日、Lenovo ThinkAgile SX for Microsoft Azure Stac...
クラウド時代の広範な進歩に伴い、クラウド時代の新しい概念が普及してきました。ハイブリッド クラウド ...
テンセント副社長兼テンセントクラウド社長の邱月鵬氏は9月10日、2020年テンセントグローバルデジタ...
A5 で、「Web サイトのスナップショットをその日のバージョンにするのはとても簡単であることが判明...
以前ウェブマスターが紹介したeurobyte™は、2010年から運営しているロシアの会社です。ロシア...
「売れ残り男」と「売れ残り女」が徐々に社会現象となり、テレビでは「もしあなたがその人なら」などの結婚...
仮想化されたデータ センターでは、物理サーバーが仮想マシン (VM) と呼ばれる複数の論理サーバーに...
bgpto も古いブランドで、シンガポールサーバー、日本サーバー(東京、大阪)、香港サーバー、米国サ...
ガートナーのパブリッククラウドストレージプロバイダーに関するマジッククアドラントによると、AWS は...
北京SEOとSEO Wediouブログを構築し始めた頃、私はFatty(北京SEO Fatty Bl...