Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

みなさんこんにちは。ジュン兄です。

Kafka は、1 秒あたり数千万件のメッセージを処理できる優れたパフォーマンスを備えたメッセージ キューです。今日は、Kafka の高パフォーマンスの背後にある技術的な原理についてお話ししましょう。

1. 一括送信

Kafka はメッセージをバッチで処理します。 Kafka プロデューサーがメッセージを送信するためのコードを見てみましょう。

 private Future<RecordMetadata> doSend(ProducerRecord<K, V> record, Callback callback) { TopicPartition tp = null; try { //省略前面代码Callback interceptCallback = new InterceptorCallback<>(callback, this.interceptors, tp); //把消息追加到之前缓存的这一批消息上RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey, serializedValue, headers, interceptCallback, remainingWaitMs); //积累到设置的缓存大小,则发送出去if (result.batchIsFull || result.newBatchCreated) { log.trace("Waking up the sender since topic {} partition {} is either full or getting a new batch", record.topic(), partition); this.sender.wakeup(); } return result.future; // handling exceptions and record the errors; // for API exceptions return them in the future, // for other exceptions throw directly } catch /**省略catch 代码*/ }

コードからわかるように、プロデューサーは doSend メソッドを呼び出した後、メッセージを直接送信するのではなく、メッセージをキャッシュします。キャッシュされたメッセージの量が設定されたバッチ サイズに達するまで、メッセージは送信されません。

注:上記の accumulator.append コードから、メッセージのバッチが同じトピックの同じパーティションに属していることがわかります。

ブローカーはメッセージを受信した後、バッチ メッセージを単一のメッセージに解析してディスクに書き込みません。代わりに、バッチ メッセージとしてディスクに書き込み、バッチ メッセージを他のレプリカに直接同期します。

コンシューマーがメッセージをプルする場合、メッセージを個別にプルするのではなく、バッチでプルします。一連のメッセージをプルした後、それらは消費のために単一のメッセージに解析されます。

メッセージのバッチ送受信を使用すると、クライアントとブローカー間のやり取りの回数が減り、ブローカーの処理能力が向上します。

2. メッセージの圧縮

メッセージ本文が大きい場合、Kafka メッセージのスループットは数千万に達する必要があり、ネットワーク カードでサポートされるネットワーク伝送帯域幅がボトルネックになります。 Kafka のソリューションはメッセージの圧縮です。メッセージを送信するときに、パラメータ compression.type を追加すると、メッセージの圧縮を有効にすることができます。

 public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); //开启消息压缩props.put("compression.type", "gzip"); Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>("my_topic", "key1", "value1"); producer.send(record, new Callback() { @Override public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception != null) { logger.error("sending message error: ", e); } else { logger.info("sending message successful, Offset: ", metadata.offset()); } } }); producer.close(); }

compression.type の値が none に設定されている場合、圧縮は有効になりません。メッセージはいつ圧縮されますか?前述したように、プロデューサーはメッセージを送信する前に一連のメッセージをキャッシュし、送信する前に圧縮します。コードは次のとおりです。

 public RecordAppendResult append(TopicPartition tp, long timestamp, byte[] key, byte[] value, Header[] headers, Callback callback, long maxTimeToBlock) throws InterruptedException { // ... try { // ... buffer = free.allocate(size, maxTimeToBlock); synchronized (dq) { //... RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callback, dq); if (appendResult != null) { // Somebody else found us a batch, return the one we waited for! Hopefully this doesn't happen often... return appendResult; } //这批消息缓存已满,这里进行压缩MemoryRecordsBuilder recordsBuilder = recordsBuilder(buffer, maxUsableMagic); ProducerBatch batch = new ProducerBatch(tp, recordsBuilder, time.milliseconds()); FutureRecordMetadata future = Utils.notNull(batch.tryAppend(timestamp, key, value, headers, callback, time.milliseconds())); dq.addLast(batch); incomplete.add(batch); // Don't deallocate this buffer in the finally block as it's being used in the record batch buffer = null; return new RecordAppendResult(future, dq.size() > 1 || batch.isFull(), true); } } finally { if (buffer != null) free.deallocate(buffer); appendsInProgress.decrementAndGet(); } }

上記の recordsBuilder メソッドは、最終的に次の MemoryRecordsBuilder コンストラクターを呼び出します。

 public MemoryRecordsBuilder(ByteBufferOutputStream bufferStream, byte magic, CompressionType compressionType, TimestampType timestampType, long baseOffset, long logAppendTime, long producerId, short producerEpoch, int baseSequence, boolean isTransactional, boolean isControlBatch, int partitionLeaderEpoch, int writeLimit) { //省略其他代码this.appendStream = new DataOutputStream(compressionType.wrapForOutput(this.bufferStream, magic)); }

上記の wrapForOutput メソッドは、設定された圧縮アルゴリズムに従って圧縮するか、圧縮しないかを決定します。現在、Kafka は gzip、snappy、lz4 の圧縮アルゴリズムをサポートしています。バージョン 2.1.0 以降、Kafka は Zstandard アルゴリズムをサポートします。

ブローカー側では、検証を行うためにヘッダーが解凍されますが、メッセージ本文は解凍されません。メッセージ本体はコンシューマー側で解凍されます。コンシューマーがメッセージのバッチを取得した後、最初にそれらを解凍し、次にメッセージを処理します。

圧縮と解凍は CPU を集中的に使用する操作であるため、メッセージ圧縮を有効にする場合は、プロデューサーとコンシューマーの CPU リソースも考慮する必要があります。

メッセージのバッチ収集と圧縮により、Kafka プロデューサーがメッセージを送信するプロセスは次のようになります。

3. ディスクのシーケンシャル読み取りと書き込み

連続的な読み取りと書き込みにより、アドレス指定の時間が節約され、1 回のアドレス指定で連続的な読み取りと書き込みが可能になります。

SSD では、シーケンシャル読み取りおよび書き込みのパフォーマンスは、ランダム読み取りおよび書き込みのパフォーマンスよりも数倍高くなります。機械式ハードドライブでは、アドレス指定時に磁気ヘッドを移動する必要があり、この機械的な移動に多くの時間がかかります。したがって、機械式ハードドライブのシーケンシャル読み取りおよび書き込みパフォーマンスは、ランダム読み取りおよび書き込みの何十倍も高くなります。

メッセージ データを書き込むとき、Kafka のブローカーはまず各パーティションのファイルを作成し、次にファイルに対応するディスク領域にデータを順番に追加します。ファイルがいっぱいの場合は、データの追加を続行するために新しいファイルを作成します。これにより、アドレス指定時間が大幅に短縮され、読み取りおよび書き込みのパフォーマンスが向上します。

4. ページキャッシュ

Linux システムでは、すべてのファイル IO 操作は、ディスク ファイル用にメモリ内に作成されるキャッシュである PageCache を経由する必要があります。アプリケーションがファイルを読み書きする場合、ディスク上のファイルを直接読み書きするのではなく、PageCache を操作します。

アプリケーションがファイルを書き込む場合、最初にデータが PageCache に書き込まれ、その後、オペレーティング システムが PageCache データを定期的にディスクに書き込みます。以下のように表示されます。

アプリケーションがファイル データを読み取るとき、まずそのデータが PageCache 内にあるかどうかを判断します。そうであれば、データを直接読み取ります。そうでない場合は、ディスクを読み取り、データを PageCache にキャッシュします。

Kafka は PageCache の利点を最大限に活用します。プロデューサーがメッセージを生成する速度がコンシューマーがメッセージを消費する速度と同程度の場合、Kafka は基本的にメッセージをディスクに書き込まずにメッセージの送信を完了できます。

5. ゼロコピー

Kafka Broker がコンシューマーにメッセージを送信する場合、PageCache にヒットしたとしても、まず PageCache 内のデータをアプリケーションのメモリ領域にコピーし、次にアプリケーションのメモリ領域からソケット バッファ領域にコピーしてから、データを送信する必要があります。以下のように表示されます。

Kafka はゼロコピー技術を使用して、データを PageCache からソケット バッファに直接コピーするため、データをユーザー状態メモリ領域にコピーする必要がありません。同時に、DMA コントローラは CPU の関与を必要とせずにデータのコピーを直接完了します。以下のように表示されます。

Java ゼロコピー テクノロジーは、最下層の sendfile メソッドを呼び出す FileChannel.transferTo() メソッドを使用します。

6. mmap

Kafka のログ ファイルは、データ ファイル (.log) とインデックス ファイル (.index) に分かれています。インデックス ファイルの読み取りパフォーマンスを向上させるために、Kafka はインデックス ファイルに mmap メモリ マッピングを使用し、インデックス ファイルをプロセスのメモリ領域にマッピングします。これにより、インデックス ファイルの読み取り時にディスクから読み取る必要がなくなります。以下のように表示されます。

7. まとめ

この記事では、Kafka が高パフォーマンスを実現するために使用する主要なテクノロジーを紹介します。これらの技術は私たちの研究と仕事の参考になります。

<<:  Traefik Proxy v3.0 の画期的な機能を 1 つの記事で理解する

>>:  Kubernetesネットワークモデルの包括的なガイドについてお話ししましょう

推薦する

SEOは単純な技術的問題ではない

私は一般的に、SEO を難解にしたり、技術的にしすぎたりすることに反対ですが、だからといって SEO...

Lashou.comの地域マネージャー4人が辞任したと報道:グループ購入が困難に

デイリー・エコノミック・ニュースが昨日独占報道した、WoWotuanがサプライヤーから支払い不履行に...

リンクベイトの例: 業界の分類と物議を醸すトピック

基本的なヒント: よく使用される参考資料とツールをリストするか、簡単な説明をいくつか追加します。この...

2020 年のクラウド コンピューティング市場: 新たな提携、サーバーレス、セキュリティの課題

昨年、米国のコンサルティング会社フォレスターは、企業が2019年にクラウドコンピューティングを利用し...

ByteDanceのゲームアドベンチャー

バイトダンスは2019年に10以上のゲームを配信して試行錯誤した後、2019年に独自のゲーム開発のプ...

SEO三部作のキーワード戦略

企業サイトや個人ブログはそれぞれ異なるユーザー(つまり、異なるオーディエンス)に直面しています。ユー...

VMware NSXネットワーク仮想化プラットフォームにより、ローカル環境とクラウド環境の統合管理が可能

業界の期待どおり、VMware の最新のネットワーク コンピューティング ビジョンは、あらゆるクラウ...

#割引プロモーション# virpus: 夏休み/シアトルVPS/Xen仮想の50%割引コード

夏休みが到来し、Xen 仮想化、純粋な SSD、1Gbps 帯域幅を備えた virpus の VPS...

BeautifulSoup4 の最もよく使われる 5 つの機能 [Sun Ji]

[注記] この記事は、友人のSun Jiがイントラネット wiki に投稿した記事を転載したものです...

B2Bウェブサイトを成功に導くための重要なポイントについて簡単に説明します。

B2Bウェブサイトも、この百度革命の影響を深刻に受けました。症状は異なりますが、一般的にウェブサイト...

MozillaがWebXR標準を提案し、複合現実技術を標準化すると発表

Mozilla は、ユーザーが使用しているデバイスに関係なく、Web 上で複合現実と拡張現実が機能す...

ウェブサイトを再構築する際に既存のランキングを保護する方法

ウェブサイトを再構築する目的は、パフォーマンスを向上させることです。したがって、最初に行うべきことは...

unixhost: 高品質のウクライナの仮想ホスティングとKVMシリーズVPSを提供

unixhost は 2009 年に設立され、主に仮想ホスティング、VPS、専用サーバーの事業を運営...

ウェブサイトの組み込みが異常ですか?どうすれば解決できるでしょうか?

2018年最もホットなプロジェクト:テレマーケティングロボットがあなたの参加を待っています1. ウェ...

コンテンツ マーケティングにおける「コンテンツ」という言葉の意味は何でしょうか?

コンテンツ マーケティングは、よく知られている概念であると同時に、あまり知られていない概念でもありま...