チップの革新に10年を費やしたAmazon Web Servicesは、デジタル変革のためのクラウドハードウェア「アクセラレータ」を提供します

チップの革新に10年を費やしたAmazon Web Servicesは、デジタル変革のためのクラウドハードウェア「アクセラレータ」を提供します

半世紀にわたって続いたムーアの法則により、必然的に多くの人々は、常に同じコストでより強力なコンピューティング リソースを入手できるという幻想を抱くようになりました。実際、ムーアの法則は、ゴードン・ムーアが 1960 年代に経験した結果に過ぎず、自然の法則ではありません。企業がデジタル変革を加速するにつれ、コンピューティング能力に対する需要が急増し、チップ製造プロセスは物理的な限界に近づき続けています。汎用チップのコストが上昇しているため、ムーアの法則の実装が困難になっています。

そのため、「ポスト・ムーア時代」を見据えた企業は、高品質な開発を確保しながらデジタルトランスフォーメーションを推進できる性能とコストの関係を維持するための実現可能な技術的ルートを模索し始めています。 10 年以上前、Amazon Web Services は、クラウド インフラストラクチャにおける汎用チップの非効率的なパフォーマンスとエネルギー損失に気づき始め、クラウド コンピューティング向けにカスタマイズされたチップとハードウェアに注目し始めました。 Amazon Web Services は、クラウド環境の複雑さに関する深い理解と、基盤となるテクノロジーが上位レベルのアプリケーションに与える影響に関する深い洞察に基づいて、独自のチップを作成する道を歩み始めました。

「十分では十分ではない」

クラウドコンピューティング向けの自社開発チップの開発の重要性について、Amazon Web Servicesの最高技術責任者であるWerner Vogels氏は、2022 re:Invent Global Conferenceで次のように述べた。「十分な品質というのは、決して十分ではない」。たとえば、開発者が強力な GPU を使用して機械学習モデルの構築からトレーニング、推論までのプロセス全体を実行する場合、GPU がさまざまなタスクに対して最適化されていないため、パフォーマンスの低下は想像を超えることが多く、開発者は高いハードウェアおよびエネルギー コストも負担する必要があります。

クラウド コンピューティングのユーザーは、必然的にさらに強力なコンピューティング能力を追求し続けるでしょうが、「量と価格の両方の増加」を望むユーザーはいません。このため、Amazon Web Services は、今世紀初頭からクラウド コンピューティング向けのカスタマイズされたハードウェアの開発を開始し、2006 年に最初のAmazon Elastic Compute Cloud (Amazon EC2)インスタンスをリリースしました。それ以来、クラウドベースのビジネスの多様性と複雑さが増し、コスト削減と効率性の向上を求めるユーザーの要求が高まるにつれて、Amazon Web Services は、基盤となるテクノロジーのカスタマイズされたイノベーションが、クラウド コンピューティングの急速な発展に不可欠な要素となることを認識してきました。

2013 年、Amazon Web Services はクラウド サーバー仮想化エンジンである Amazon Nitro システムを発表し、基盤となるクラウド コンピューティング技術分野で業界をリードする 10 年の幕開けとなりました。アマゾン ウェブ サービスは、2015 年に Annapurna Labs を買収した後、自社開発チップの急速な発展の道を歩み始めました。同社は2017年までに、仮想化システム、クラウドネイティブプロセッサ、機械学習トレーニングおよび推論チップなど、数多くの自社開発チップを開発しました。 Amazon Web Services の自社開発チップにより、Amazon EC2 インスタンスの数が急速に増加しました。現在、Amazon EC2 インスタンスには 600 種類以上あり、ほぼすべてのオペレーティング システムとアプリケーションをカバーしているため、何百万もの顧客が Amazon Web Services 上で最も適切なソリューションを見つけて、厳しいビジネス ニーズを満たすことができます。

仮想化によるパフォーマンスの低下を排除

仮想化カスタム チップの Nitro シリーズは、Amazon Web Services が独自の「チップ」を独自に作成するための出発点です。クラウド コンピューティングの基礎である仮想化は、かつてはコンピューティング リソースの 30% を占めていました。つまり、ユーザーが購入したコンピューティング パワーの約 3 分の 1 が、実質的なコンピューティング パワーのリターンを得ることなく「チケット」になってしまったのです。

Nitro の重要な目標の 1 つは、基盤となるテクノロジーによる仮想化パフォーマンスの低下の問題を解決することです。 Nitro はカスタマイズされたチップと独立したモジュール設計を通じて、クラウド コンピューティング システムのすべての仮想化機能を引き受け、仮想化によるパフォーマンスの低下を 1% 未満 (ほぼ無視できるレベル) に抑え、ユーザーが購入したインスタンスのコンピューティング能力をほぼ 100% ビジネスに活用できるようにします。同時に、Nitro のセキュリティ チップは、ユーザーにハードウェア レベルのセキュリティ メカニズムを提供します。これは、ネットワークとストレージの分離による独立したセキュリティ チャネルを実現するだけでなく、データ転送のあらゆる側面でハードウェア レベルの暗号化を実装し、ユーザーがより強力なデータ セキュリティを実現できるようにします。

Amazon Web Services は 2013 年から 2020 年にかけて Nitro を第 4 世代にアップデートしており、Nitro のアップグレードは現在も継続中です。昨年の 2022 re:Invent Global Conference で、Amazon Web Services は新しい第 5 世代 Nitro を発表し、データ処理機能がさらに向上し、レイテンシが短縮されました。パフォーマンスの向上をエネルギー消費率に換算すると、第 5 世代 Nitro はワットあたりのパフォーマンスが 40% 向上し、ユーザーに別の次元でより高いコスト パフォーマンスをもたらします。

これに伴い、第 5 世代 Nitro を搭載した新しいインスタンス Amazon EC2 C7gn もリリースされました。最新世代の Nitro のサポートにより、C7gn は現在の世代の C6gn と比較してネットワーク処理能力が強化されており、すべての Amazon EC2 ネットワーク最適化インスタンスの中で最高のネットワーク帯域幅とパケット転送パフォーマンスを提供できるインスタンスとなっています。 C7gn インスタンスは、コンピューティング パフォーマンスが最大 25% 向上し、暗号化パフォーマンスが最大 2 倍向上するため、ユーザーは Amazon EC2 で最も要求の厳しいネットワーク集約型ワークロードのコストを最適化し、スケーラビリティを向上させることができます。

Amazon EC2 C7gn インスタンス

自社開発チップの継続的なアップグレードと大規模なアプリケーションにより、ユーザーに高いコスト効率をもたらします。

Nitro は、ユーザーがコンピューティング能力の損失に別れを告げるのに役立ちますが、ユーザーはどのようにして既存のコンピューティング能力を使用してムーアの法則を上回ることができるのでしょうか?

Amazon Web Services の CEO である Adam Selipsky 氏はかつてこう言っています。「あらゆるワークロードのコンピューティングのコスト効率を根本から改善したいのであれば、インスタンスを根本から考え直す必要があります。この目標を達成するには、基盤となるテクノロジーを深く掘り下げて、チップに直接取り組む必要があります。」最終的に、Amazon Web Services が出した答えは、ARM アーキテクチャに基づく汎用クラウドネイティブ プロセッサである Graviton でした。

X86 アーキテクチャと比較すると、Graviton は低コストと高コア密度のため、高コンピューティング密度の分野でより多くの利点があり、エネルギー消費性能も優れています。しかし、当時、ARM アーキテクチャは、クラウド コンピューティングに基づくエンタープライズ レベルのアプリケーションの分野では画期的な進歩を遂げていませんでした。 ARM アーキテクチャを採用するということは、Amazon Web Services がユーザーベースがほとんどない領域に参入しなければならないことを意味します。

Amazon Web Services は 2018 年に第 1 世代の Graviton プロセッサをリリースし、その後 2020 年に Graviton 2 をリリースして大規模なアプリケーションを実現し、ARM プロセッサのエンタープライズ レベル アプリケーションのベンチマークを確立しました。同時に、Graviton の各世代ではパフォーマンスが大幅に向上しています。 2021年に発表されたGraviton 3は、前世代と比較してシングルコア性能が25%向上し、浮動小数点性能が2倍に向上しています。さらに、ARM アーキテクチャを使用しているため、x86 インスタンスと比較して最大 60% のエネルギー消費削減も実現します。

近年、人工知能や自動運転などの新興アプリケーションの負荷とコスト効率がハイパフォーマンスコンピューティングに最適化されたインスタンスに対して飛躍的に高まっていることから、Amazon Web Servicesは、浮動小数点およびベクトル命令演算に特化して最適化されたGraviton 3Eと、それがサポートするハイパフォーマンスコンピューティングに最適化されたインスタンスHpc7gを2022 re:Invent Global Conferenceでリリースしました。 Hpc7g は、現世代の Hpc6a インスタンスに比べて 20% のパフォーマンス向上を実現し、最大数万のコアを備えた高性能コンピューティング クラスターで複雑な計算を実行できるようにすることで、計算流体力学、気象シミュレーション、ゲノミクス、分子動力学などの高性能コンピューティング ワークロードに超高コスト パフォーマンスを提供し、難易度の上昇という問題にさらに対処し、高性能コンピューティング ワークロードのコストを削減します。

ユーザーに高いコスト効率を提供し、ユーザーが Graviton インスタンスを採用しやすくするために、Amazon Web Services は Graviton 上で 20 を超えるマネージド サービスを実行しており、この数は増え続けています。これらのサービスには、よく使用されるAmazon Relational Database Service Amazon Aurora Amazon ElastiCache Amazon MemoryDB for Redis Amazon OpenSearch Amazon EMR Amazon Elastic Kubernetes Service Amazon Lambdaが含まれます。マネージド サービスにより、顧客がアプリケーションを Graviton に移行する際の複雑さが大幅に軽減され、移行にかかる時間が数日から数分に短縮されます。また、Graviton インスタンスに移行することでコスト効率が最大 40% 向上します。

機械学習のあらゆる側面を扱うための専門的な「コア」

機械学習が徐々に超大規模モデルの時代に入るにつれ、数十億パラメータのモデルが至る所に存在し、計算能力を圧迫するブラックホールとなっています。これによって消費される計算能力とコストも、企業を圧倒する原因となります。

機械学習で広く使用されている汎用チップは、約 2 年ごとにパフォーマンスを 2 倍にすることができますが、それでもトレーニング モデルの複雑さの増大に追いつくことはできません。 Amazon Web Services は、機械学習向けに特別に最適化されていない GPU は、長期的にはクラウド上で機械学習タスクを処理できないと考えています。唯一の解決策は、分散マルチプロセッサを使用して、ネットワーク上でモデルを共同で計算することです。この目的のために、Amazon Web Services は、機械学習の 2 つの側面をターゲットに、トレーニング用の Amazon Trainium チップと推論用の Amazon Inferentia チップをリリースしました。

2022 年 10 月、Amazon Web Services は、クラウド内の高性能モデル向けに特別に構築された Trainium ベースの Amazon EC2 Trn1 インスタンスをリリースしました。最大 16 個の Trainium チップを搭載でき、512 GB の高帯域幅メモリと 800 Gbps のネットワーク帯域幅を備えています。 2022 re:Invent Global Conference で、Amazon Web Services は、ネットワーク帯域幅が 1.6Tbps に増加した拡張 Trn1n インスタンスをリリースしました。超大規模クラスター上に 10,000 個を超える Trainium チップを構築することで、超大規模モデルの並列トレーニングが可能になります。

Amazon Web Services は 2018 年に推論用の Inferentia チップをリリースし、翌年には対応する Amazon EC2 Inf1 インスタンスをリリースしました。これにより、ユーザーは低レイテンシで低コストの推論を実現できます。 2022 re:Invent Global Conference において、Amazon Web Services は、ディープラーニング モデルの規模と複雑さの急激な増大に対応するため、次世代推論チップ Inferentia 2 と、このチップをベースにした Amazon EC2 Inf2 インスタンスをリリースしました。 Inf2 インスタンスは、大規模な Transformer モデルの分散推論専用に構築された唯一のインスタンスです。 Inf1 インスタンスと比較すると、Inf2 インスタンスではスループットが 4 倍、レイテンシが 1/10、ワットあたりのパフォーマンスが 45% 向上しています。 Inf2 インスタンスは、最大 1,750 億のパラメータを持つ大規模なモデルを実行できます。これは、GPT-3、Mask R-CNN、ViT などの超大規模で複雑なモデルには十分です。

10年にわたる先導を経て、ハードウェアのイノベーションは加速に入った。

アメリカのコンピュータ科学者でチューリング賞受賞者のアラン・ケイ氏はかつてこう言った。「ソフトウェアに真剣に取り組む人は、自分のハードウェアを自分で作るべきだ。」 Amazon Web Services の 10 年間のイノベーションは、この声明と一致しています。長年にわたる独自のチップとハードウェアの徹底的な研究開発を通じて、基盤技術レベルで大きな差別化された優位性を確立しました。

近年、クラウド コンピューティングにおけるカスタマイズされたハードウェア イノベーションの重要性が注目され、認識される企業が増えています。 Amazon Web Services の最高技術責任者である Werner Vogels 氏は、「2023 年には、専用チップの使用が急速に増加し、ワークロードはハードウェアの最適化を活用してパフォーマンスを最大化し、エネルギー消費とコストを削減するようになる」と予測しています。これはまた、カスタマイズされたハードウェアがクラウド コンピューティング パワーの最も信頼性の高い成長エンジンの 1 つになり、ユーザーがコストとパフォーマンスの面で優れたリターンを得て、高品質のエンタープライズ開発をサポートするデジタル機能を獲得するのに役立つことを意味します。

<<:  調査によると、マルチクラウドの最大の推進要因は依然としてコスト

>>:  API サーバー ソースコード分析: エントリ ポイント分析

推薦する

Baidu 百科事典によるウェブサイト パスの最適化に関する簡単な説明

みなさんこんにちは。私は湖南省出身のキネスです。今日お話しするトピックは、ウェブサイトのパスを最適化...

世界のトップ10,000ウェブサイトのうち74.6%はオープンソースソフトウェアで運営されている

インターネットの発展において、オープン性とクローズド性は常に非常に議論の多いトピックでした。では、オ...

VaiCDN: 広い帯域幅、高い防御力、攻撃による遅延の影響を受けない、登録/実名不要、大規模なアジアノード

CDN マーチャントである vaicdn は、広い帯域幅、高い防御力、低いレイテンシ、大規模なアジア...

DEDEcms 究極の SEO 最適化チュートリアル

DEDEcms は中国のオープンソース CMS プログラムです。現在、ウェブサイトの構築に dede...

「公式サイト」という言葉を含む企業ウェブサイトに対する百度の取り締まりの影響分析

百度はここ数日、また私たちを不安にさせています。そうです、百度はまたもや大規模なアップデートを開始し...

SEO 担当者の皆さん、転職しないでください。月に 10,000 元稼げる仕事はたくさんあります。

【実名紹介】SEOには専門家と初心者の区別はありません。インターネットは大きな舞台です。最近、eコマ...

VM、コンテナ、サーバーレスの違いを理解する

従来、アプリケーションは、コードを実行するサーバーやオペレーティング システムと密接にリンクされてい...

逆境におけるリスクを回避するために、事業継続は必須である

キャッシュフローの危機、不確実な景気変動、その他の予期せぬ出来事の課題により、企業は持続可能な運営能...

モバイル着信音サイトのキーワード最適化戦略の分析例

最新の携帯電話アプリが好きな友人は、専門的なアプリダウンロードウェブサイトを好みます。中国でより有名...

自動車ブランドイベントマーケティング戦略!

4月15日夜、「ロックミュージックのゴッドファーザー」崔健の初のオンラインコンサート「Keep Go...

WeChat for Businessを通じてPrometheusアラートを実装する方法を教えます

1. プロメテウスのアーキテクチャコンポーネントの紹介Prometheusサーバー: メトリックを収...

ハイブリッドクラウドの総コストを計算する方法

組織が単純なパブリック クラウド アーキテクチャを採用している場合でも、クラウド コンピューティング...

Panguは本日合併を発表した。周希勝氏がCEOに就任する。鄧亜平氏の所在は不明。

網易科技ニュース、8月1日、網易科技は独占的に、Pangu SearchとJikesouが本日10時...