2021年7月24日、江蘇省未来ネットワークイノベーション研究所が主催し、SDNLABが主催した2021年中国5Gネットワークイノベーションフォーラムでは、多くの機関がDPUの進捗状況について話し合いました。読者のためにこれをまとめました。 5G 時代では通信帯域幅が大幅に増加し、帯域幅が拡大するとより多くのアプリケーションが可能になります。データ量とサーバーネットワーク帯域幅の急速な増加は、コンピューティング能力の成長をはるかに上回っています。ライン速度の I/O 処理要件を持つアプリケーションは、CPU とメモリによって制限されます。既存のシステムでは、CPU リソースの使用により、レイテンシが増加し、パケット処理パフォーマンスが変動することもあります。 5G時代は、接続される端末機器の爆発的な増加と、データの爆発的な増加をもたらします。統計によると、2019年に世界中で45ZBのデータが生成され、この数字は2024年までに142ZBに達すると予測されており、そのうち24%はリアルタイム端末データから得られるものになります。大量のデータ条件下での低遅延ネットワーク伝送とデータ処理に対する計算能力要件とパフォーマンス圧力は非常に大きいです。 5G 時代は、パーソナライズされカスタマイズされたプライベート ドメイン ネットワークの時代をもたらします。 5G ネットワークは一般の人々だけに使用されるのではなく、より重要なことに、あらゆる階層の人々に力を与えます。新しいインフラの重要な部分として、それらは社会の発展を促進します。 5G は、リアルタイムのアプリケーションとサービスを提供するために、ネットワークのエッジに大量に導入されます。 IDC の統計によると、過去 10 年間、世界のコンピューティング能力の成長はデータの成長に大きく遅れをとっています。コンピューティング能力に対する世界的な需要は 3.5 か月ごとに倍増しており、コンピューティング能力の成長率をはるかに上回っています。コンピューティング能力は、高度な生産力として、1兆米ドルの経済を支えています。 5G の推進により、コンピューティング組織は「エンドクラウド」統合から「エンドエッジクラウド」統合へと進化しました。インメモリ コンピューティングからインネットワーク コンピューティングへ。 5G 開発の重要な基礎となるインフラストラクチャ クラウド リソースも大きな変化を遂げました。 5Gの必要性5G MEC は、コンピューティング能力、サービス、および一部の 5G ネットワーク機能をネットワークのエッジに展開し、低遅延のオンサイト データ処理と機密データのローカル処理を実現する分散コンピューティング展開アーキテクチャです。 MEC は、低頻度、頻度が不確実、時間に敏感なビジネス シナリオにうまく適応できます。 (出典: パープルマウンテンネットワーク通信およびセキュリティ研究所) 5G MEC には、5G ゲートウェイ UPF、エッジ アプリケーション プラットフォーム MEP、業界アプリケーション APP、仮想化インフラストラクチャが含まれます。 5G MEC は、エンドユーザーに近いエッジに統合デバイスとして導入され、大帯域幅、低遅延のネットワーク接続機能、AI や画像レンダリングなどのコンピューティング機能、業界志向のセキュリティ機能を提供します。 エッジ コンピューティングは、従来の集中型インターネット エクスチェンジ (Internet Exchange IX) モデルからエッジ エクスチェンジ モデルへと拡張されます。エンド ユーザーとエッジにあるデバイスはプライマリ IX ポイントから遠く離れており、これらの場所に到達するためにトラフィックが移動する必要がある距離によってパフォーマンスが低下し、伝送コストが大幅に増加する可能性があります。ネットワークの相互接続は、エンドユーザーに近いラストマイル ネットワークの近くのエッジで実行する必要があります。データは、コア ネットワークを介さずにエッジで相互接続され、共有されます。エッジ相互接続により、より多くのトラフィックがローカルに維持されます。 低遅延ネットワークはエッジ コンピューティングの重要なコンポーネントであり、ネットワーク ノードをローカル エリアにできるだけ近づける必要があります。ローカルで生成され保存されるデータが増えるにつれて、エッジでのネットワーク相互接続密度が急増し、バックボーン ネットワークがエッジまで拡張され、アクセス ネットワークの 1 ~ 2 ホップ内でピアツーピアの相互接続とデータ交換が行われるようになります。エッジ コンピューティング インフラストラクチャが構築されるにつれて、多くの施設がネットワーク間のデータ交換ポイントとして機能するようになります。ネットワークはこれらのノードに収束し、エッジ サービスのサポートを提供し、エッジ サービスの遅延を減らし、ファイバーの距離を短縮し、ネットワーク ホップを減らします。コンピューティングがエッジにまで拡大するにつれて、ネットワークのクロスコネクトもより分散化されるようになります。 2025 年までに、データの 75% が工場、病院、小売店、都市のエッジで生成、処理、保存、分析されると予測されています。 5G には、低遅延接続のニーズを満たす柔軟なプリアンブルがあります。エッジ コンピューティングの需要が高まるにつれ、既存のバックホール ネットワークの処理速度は 5G ネットワーク データによって生成される速度と容量の要件に対応できなくなり、エッジでより高速で大容量の新しいルートを展開する必要が生じます。 5G 仮想化ネットワーク機能には、高度に分散されたデータセンターが必要です。このようなデータセンターでは、5G ネットワークを実行しながらエッジ クラウド サービスを実行するのに十分な数のサーバーを展開できます。 ワークロードをエッジに配置するには、アプリケーションの構築および実行方法を適応させ、コードをデータセンターのサーバーから顧客施設の機器のマイクロコントローラーに拡張できるようにする必要があります。高度に分散されたアプリケーションとデータを管理し、大規模なエッジ操作を調整する必要があります。 (クラウド ネイティブ テクノロジーと DevSecOps テクノロジー) エッジにプッシュされるコードは自己完結型である必要があり、コード、構成、ライブラリ、ソフトウェア定義環境など、各コンポーネントが完全である必要があります。コンテナまたは仮想マシンがどこでも実行できることを保証するために、コードは全体として構築、テスト、およびデプロイされます。 DPUの出現クラウド インフラストラクチャの分野では、CPU は一般的なコンピューティングとアプリケーション エコシステムの構築に使用されます。ハイパーバイザーなどの仮想化技術は大量のメモリやCPUリソースを占有し、実際に共有に使用されるリソースに大きな影響を与えます。ネットワーク プロトコル処理を例にとると、メッセージを解析するには約 100 サイクルかかります。 10G ネットワークをライン速度で処理するには、約 4 個の Xeon CPU コアが必要です。ネットワーク パケット処理だけで、8 コアのハイエンド CPU の計算能力の半分を占める可能性があります。 GPU は、画像処理やストリーミング メディア処理を中心にコンピューティングを高速化するために使用され、AR、VR 処理、AI 高速化の方向で開発が続けられています。クラウドインフラの分野では、CPU負荷を軽減し、ハードウェアリソースをテナント間で最大限に共有できる技術が求められています。 10 年前、ネットワーク プロセッサ (NP) は主にパケット処理とプロトコル処理の高速化に使用され、主にマルチコア NOC アーキテクチャを使用して、さまざまなゲートウェイ、ファイアウォール、UTM などのデバイスに適用されていました。その後、Intel は DPDK テクノロジを発表しました。これは、自社が提供するデータ プレーン ライブラリを使用して、Linux カーネル プロトコル スタックをバイパスし、ユーザー空間でデータ パケットを操作することで、パケット転送速度を大幅に向上させます。元々 NP の実装を必要としていたゲートウェイ デバイスは、現在では X86 のパフォーマンス要件を満たすことができます。 DPU は、5G 時代のネットワーク アクセラレーションを統合した新しいタイプのデータ処理ユニットです。 DPU は、RDMA、ネットワーク機能、ストレージ機能、セキュリティ機能、仮想化機能を統合します。伝送と計算のニーズを考慮しながら、CPU が苦手とするネットワーク プロトコル処理、データの暗号化と復号化、データの圧縮などのデータ処理タスクを引き継ぎます。 DPU は接続ハブとして機能し、一方の端は CPU、GPU、SSD、FPGA アクセラレーション カードなどのローカル リソースに接続され、もう一方の端はスイッチ/ルーターなどのネットワーク リソースに接続されます。一般的に、DPU はネットワーク伝送効率を向上させるだけでなく、CPU コンピューティング リソースを解放し、それによってデータ センター全体のコスト削減と効率向上を促進します。 1950 年以来、CPU はコンピューターやスマート デバイスの核となっています。 GPUは1990年から登場している 5G時代はデータ革命の時代であり、DPUの時代です。 DPUとはDPU はスマート ネットワーク カードのアップグレード バージョンであり、ネットワーク セキュリティとネットワーク プロトコルの処理機能、および分散ストレージの処理機能を強化します。ソフトウェア定義ネットワーク、ソフトウェア定義ストレージ、ソフトウェア定義アクセラレータを有機的に統合し、プロトコル処理、データセキュリティ、アルゴリズムアクセラレーションなどのコンピューティング負荷を解決し、分散ストレージとネットワーク通信を処理するデータセンターの CPU リソースを置き換えます。 DPU は本質的に分類されたコンピューティングであり、CPU からデータ処理/前処理をオフロードし、データが発生する場所の近くにコンピューティング能力を分散することで、通信量を削減します。 GPU ベースの異種コンピューティング、ネットワークベースのコンピューティング (In-Network Computing)、メモリベースのコンピューティング (In-Memory-Computing) などの側面をカバーします。 DPU は共同処理ユニットとして位置付けられ、データ プレーンと制御プレーンを分離するというアイデアを実装したものです。これは CPU と連携し、CPU が全体的な制御を担当し、前者がデータ処理に重点を置いています。 LAN シナリオでは、DPU は PCIe/CXL などのテクノロジーを通じて、同じエッジ内のさまざまな CPU と GPU を接続します。 WAN シナリオでは、エッジ間の接続、およびエッジとクラウド間の接続は、主にイーサネット/インフィニバンドなどのテクノロジーによって実現されます。 DPU には、P4、POF などの特定のメッセージ処理エンジンが含まれています。さらに、ルーター シナリオで大量の分岐予測を処理できる ARM などのコプロセッサも含まれています。低遅延スイッチング機能を備えており、異なるタイプのデータ パケットを異なる処理ユニットに迅速に配布できます。 DPU ベースのネットワーク処理モジュールは完全にプログラム可能です。 ASIC と比較すると、DPU は、ネットワーク、プロトコル、パッケージング、暗号化アルゴリズムが急速に変化しても、ソフトウェアの速度でハードウェア機能を変更できます。 DPU によって各ネットワーク ノードの計算能力が向上するため、標準のネットワーク カードと比較して、同じ計算能力を実現するために必要なサーバーの数が少なくなり、初期コスト、スペース、電力、冷却の要件が削減されます。 DPU は、ネットワーク サービスの大規模展開の TCO を削減します。 DPU は新しいデータ ゲートウェイとなり、セキュリティ機能を統合してネットワーク インターフェイスをプライバシー境界にします。国家標準の非対称暗号化アルゴリズム SM2、ハッシュアルゴリズム SM3、対称ブロック暗号アルゴリズム SM4 など、オーバーヘッドが大きな暗号化および復号化アルゴリズムは、DPU で処理できます。将来、ブロックチェーン技術が成熟するにつれて、POW や署名検証などのコンセンサス アルゴリズムが CPU の計算能力を大量に消費し、DPU に統合される可能性もあります。 DPU はストレージへのエントリ ポイントになります。分散システムでは、NVMeof プロトコルは InfiniBand または TCP によって相互接続されたノードに拡張され、ストレージ共有とリモート アクセスを実現します。これらのデータ ストリームのプロトコル処理は、さまざまな相互接続プロトコルのコントローラとして DPU に統合できます。 DPU は、クラウド サービス プロバイダーがリソースを管理するためのツールになります。クラウドサービスプロバイダーは、すべてのクラウドリソース管理を DPU に移行し、すべての CPU と GPU を解放し、インフラストラクチャとしてクラウドテナントに提供します。プロバイダーとユーザー間のリソースは厳密に区別されており、管理インターフェースは明確で使いやすいです。 DPU実装方法:メーカーによって DPU の実装方法が異なります。
2019 年 3 月、Nvidia はイスラエルのチップ会社 Mellanox を買収しました。同社の BlueField-2 には、8 つの ARM Cortex-A72 コアと複数の専用アクセラレーション コア領域が含まれています。 DOCA (データセンター インフラストラクチャ オン チップ アーキテクチャ) は、DPU 上のソフトウェア開発プラットフォームです。標準 API を提供し、ドライバー、ライブラリ、サンプル コード、ドキュメント、パッケージ化されたコンテナーを組み合わせて、DPU ベースのアプリケーションとサービスの迅速な開発をサポートします。 ディープラーニングチップ企業のNervana Systemsとモバイルおよび組み込み機械学習企業のMovidiusを買収したIntelは、CPUとFPGAを組み合わせてDPUを構築している。ユーザー空間での効率的なデータ パケット処理のためのライブラリ関数カーネル ドライバー サポートを提供する DPDK (Intel Data Plane Development Kit) を提供します。 SR-IOV テクノロジーにより、さまざまなアプリケーションが DMA を介して PCIe デバイスと直接連携できるようになります。 FPGA は最大 300 万のロジック セルまで拡張でき、ネットワーク、メモリ、ストレージ、コンピューティングを他の処理ブロックと組み合わせて実装できます。 Broadcom は、主にスイッチおよびルーター チップ向けに Arm ベースの DPU を実装しています。 NetXtreme E シリーズ コントローラをベースに TruFlow テクノロジーを搭載した Stingray SmartNIC が発売されました。 Xilinx は 2019 年に solarFlare を買収しました。同社の最新の Alveo SN1000 シリーズは、16nm UltraScale+ FPGA アーキテクチャをベースとし、100 万個の LUT の容量を持ち、FPGA 上で 400 万個の状態接続と 1 秒あたり 1 億個のデータ パケットを処理できる NXP の 16 コア ARM プロセッサを搭載しています。同社の solarFlare onload (TCPDirect) 機能は、世界の金融取引所の 90% で使用されています。 AWS Nitro は、ネットワーク カード、ストレージ カード、コントローラー カードなど複数のカードを使用して DPU 機能を実装します。イスラエルのチップスに関するAnnapurna Labsを買収。 Alibaba Cloudは、Xeon DプロセッサとFPGAを統合したシングルカード製品であるMOCカード製品を発売しました。 NVIDIAのDPU(BlueField-2)の機能2021年中国5GネットワークイノベーションフォーラムでのNVIDIAゲストのShen Yuxi氏の講演から、NVIDIAのBlueField-2はSoCアーキテクチャ設計を採用し、最大帯域幅は200Gbps、NRZ 25GbpsモードとPAM4 50Gbpsモードのエンコードをサポートし、ConnectX-6 Dxネットワークカードチップを内蔵し、RDMAをサポートし、TLS/IPSecもサポートしていることがわかりました。 DPU はリアルタイム クロックを提供できます。 ConnectX-6DX を搭載した DPU は、PHC2SYS を介してサーバーとネットワーク カード間で 400ns の同期精度を実現できます。 PTP4l の助けにより、ConnetX-6DX 間の同期精度は 20ns に達し、5G ワイヤレス DU のクロック同期要件を満たします。 DPU はエッジ ネットワーク展開インテリジェンスを強化します。 DPU は、ベアメタル、仮想化、コンテナ化されたデプロイメント モードをサポートします。ベアメタル制御層は DPU を介して NVMe デバイスをシミュレートし、データ層は DPU の ASIC チップを使用して高速転送を行い、Infiniband または RoCEv2 ロスレス ネットワークに基づく NVMatrix を介してバックエンドの高スループット分散クラスターに接続します。 DPU は、ベアメタル物理マシンに、柔軟でスケーラブルな高速クラウド ディスク サービスへのアクセスを提供できます。 DPU は柔軟で拡張性の高いネットワーク機器を提供できます。 DPU は 2 種類のデバイスとして構成できます。1 つは PF/VF、SF を含む NVIDIA ネイティブ デバイスです。もう 1 つは VirtIO-Net デバイスです。中でもSFはベアメタルをベースにした大型コンテナ向けに特別に開発されました。機能はVFデバイスと同等です。 RDMA とカーネル プロトコル スタックをサポートしており、SR-IOV をオンにしなくても有効にできます。 DPU は最大 512 個の SF (サブ関数) をサポートします。
DPU はネットワークを高速化します。 DPU は ASAP2 ネットワーク アクセラレーション テクノロジーを使用します。 ConnetX-6DX には組み込みスイッチ (E-Switch) が内蔵されており、ネットワークデバイス間のデータ交換と処理を実現します。 E-Switch はプログラム可能で、テーブル検索操作とテーブルジャンプをサポートします。テーブル エントリは OVS データ プレーンと一致します。 OVS データ プレーンは E-Switch にオフロードでき、カーネル OVS オフロードは ASIC を通じて実現され、高い転送パフォーマンスを実現します。 ASAP2 は、OVS データ プレーン、コントロール プレーン、および管理プレーンを分離します。後者の 2 つは DPU の ARM コンピューティング コンポーネントを通じて実装され、データ プレーンは E-Switch にオフロードされ、それによって加速効果が得られます。 E-Switch は、VXLAN や GRE などの複数のオーバーレイ プロトコルのオフロードをサポートし、NAT 機能を実装するためのパケット ヘッダーの変更をサポートします。 E-Switch は、TCP 接続ステータスの監視を実装するために Connection Track をサポートしています。また、トラフィック統計、レート制限、ミラーリングもサポートしています。 E-Switch は、既存の SDN コントローラーおよびオーケストレーション ツールとシームレスに互換性があります。この DPU に基づいて、ベアメタル クラウドを迅速に展開し、ネットワーク パフォーマンスを向上させることができます。 DPU は信頼性の高いストレージを提供します。 Smart NIC と比較して、DPU はストレージ オフロード機能を追加し、SNAP テクノロジーを通じて複数のストレージ デバイスをホスト OS に提供します。アプリケーションの DPU へのアクセスは、SPDK とハードウェア オフロードの 2 つの処理方法を含む IO プロセッサによって均一に処理されます。ユーザーは、DPU に接続されたストレージ デバイスにオペレーティング システムをインストールして起動することで、ローカル ディスクをまったく使用しないベア メタル アーキテクチャを構築し、ローカル ディスクよりも高い信頼性を実現できます。テナントは、ホスト オペレーティング システムに依存しない DPU を介してストレージを定義し、アクセスします。また、リモート ストレージを最大限に活用して、迅速なデータ移行 (数分以内) をサポートすることもできます。 まとめ現在、多くの大手企業が参加しているにもかかわらず、DPU 市場はまだ初期段階にあります。ネットワークトラフィックが飛躍的に増加すると、トラフィック量が多い場所にはどこでも DPU が存在するようになり、市場の見通しは広くなります。 DPU のサポートにより、エッジとクラウドの連携、クラウドとネットワークの統合が 5G 時代に徐々に実現されるようになります。 |
<<: Meituan インタビュー: JVM チューニング パラメータについてどのような知識をお持ちですか?幸い、準備はしておきました!
>>: ファーウェイクラウドはラテンアメリカ市場に多額の投資を行い、一連の新製品とエコパートナープログラムをリリース
Gutengseo はこれまで何度も 301 リダイレクトを行ってきましたが、種類はさまざまです。今...
tinyvzは128MメモリのVZを専門に販売しているramhostのブランドです。 tinykvm...
Baidu Webmaster Platform は、2012 年 10 月 23 日午前 10 時...
このタイトルはちょっと怖くて信じられないと思うかもしれません。はい、私も最初はあなたと同じ反応をしま...
クラウドファースト戦略のリスクとメリットは、大規模で複雑な IT 環境を持つ CIO にとって難しい...
[51CTO.com からのオリジナル記事] 1972 年以来、SAP はビジネス運営モデルに完全な...
新浪科技報、北京時間5月29日朝のニュースによると、元モルガン・スタンレーのインターネットアナリスト...
APPのプロモーションでは、選択したプロモーションチャネルによって、主なユーザーのソースとユーザーの...
現在、ウェブサイトの最適化に取り組んでいる SEO 担当者は数多くいます。インターネット上の専門企業...
Servermania は 2002 年に設立されたインターネット企業です。主な事業は、サーバーのレ...
百度のプロモーションコストを削減するにはどうすればよいでしょうか。多くの人がこの話題に注目していると...
ウェブサイトの最適化レベルの向上に伴い、多くのウェブマスターは、振り返ってみると、自分が作成または最...
12月20日、2023年百度クラウドインテリジェンスカンファレンスおよびインテリジェントコンピューテ...
WholesaleInternet は、カンザスシティのダウンタウンにあるインターネット サービス会...
マイクロサービス アーキテクチャを実装する企業が増えるにつれて、コミュニティにおけるサービス メッシ...