Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

みなさんこんにちは。ジュン兄です。

Kafka は、1 秒あたり数千万件のメッセージを処理できる優れたパフォーマンスを備えたメッセージ キューです。今日は、Kafka の高パフォーマンスの背後にある技術的な原理についてお話ししましょう。

1. 一括送信

Kafka はメッセージをバッチで処理します。 Kafka プロデューサーがメッセージを送信するためのコードを見てみましょう。

 private Future<RecordMetadata> doSend(ProducerRecord<K, V> record, Callback callback) { TopicPartition tp = null; try { //省略前面代码Callback interceptCallback = new InterceptorCallback<>(callback, this.interceptors, tp); //把消息追加到之前缓存的这一批消息上RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey, serializedValue, headers, interceptCallback, remainingWaitMs); //积累到设置的缓存大小,则发送出去if (result.batchIsFull || result.newBatchCreated) { log.trace("Waking up the sender since topic {} partition {} is either full or getting a new batch", record.topic(), partition); this.sender.wakeup(); } return result.future; // handling exceptions and record the errors; // for API exceptions return them in the future, // for other exceptions throw directly } catch /**省略catch 代码*/ }

コードからわかるように、プロデューサーは doSend メソッドを呼び出した後、メッセージを直接送信するのではなく、メッセージをキャッシュします。キャッシュされたメッセージの量が設定されたバッチ サイズに達するまで、メッセージは送信されません。

注:上記の accumulator.append コードから、メッセージのバッチが同じトピックの同じパーティションに属していることがわかります。

ブローカーはメッセージを受信した後、バッチ メッセージを単一のメッセージに解析してディスクに書き込みません。代わりに、バッチ メッセージとしてディスクに書き込み、バッチ メッセージを他のレプリカに直接同期します。

コンシューマーがメッセージをプルする場合、メッセージを個別にプルするのではなく、バッチでプルします。一連のメッセージをプルした後、それらは消費のために単一のメッセージに解析されます。

メッセージのバッチ送受信を使用すると、クライアントとブローカー間のやり取りの回数が減り、ブローカーの処理能力が向上します。

2. メッセージの圧縮

メッセージ本文が大きい場合、Kafka メッセージのスループットは数千万に達する必要があり、ネットワーク カードでサポートされるネットワーク伝送帯域幅がボトルネックになります。 Kafka のソリューションはメッセージの圧縮です。メッセージを送信するときに、パラメータ compression.type を追加すると、メッセージの圧縮を有効にすることができます。

 public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); //开启消息压缩props.put("compression.type", "gzip"); Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>("my_topic", "key1", "value1"); producer.send(record, new Callback() { @Override public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception != null) { logger.error("sending message error: ", e); } else { logger.info("sending message successful, Offset: ", metadata.offset()); } } }); producer.close(); }

compression.type の値が none に設定されている場合、圧縮は有効になりません。メッセージはいつ圧縮されますか?前述したように、プロデューサーはメッセージを送信する前に一連のメッセージをキャッシュし、送信する前に圧縮します。コードは次のとおりです。

 public RecordAppendResult append(TopicPartition tp, long timestamp, byte[] key, byte[] value, Header[] headers, Callback callback, long maxTimeToBlock) throws InterruptedException { // ... try { // ... buffer = free.allocate(size, maxTimeToBlock); synchronized (dq) { //... RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callback, dq); if (appendResult != null) { // Somebody else found us a batch, return the one we waited for! Hopefully this doesn't happen often... return appendResult; } //这批消息缓存已满,这里进行压缩MemoryRecordsBuilder recordsBuilder = recordsBuilder(buffer, maxUsableMagic); ProducerBatch batch = new ProducerBatch(tp, recordsBuilder, time.milliseconds()); FutureRecordMetadata future = Utils.notNull(batch.tryAppend(timestamp, key, value, headers, callback, time.milliseconds())); dq.addLast(batch); incomplete.add(batch); // Don't deallocate this buffer in the finally block as it's being used in the record batch buffer = null; return new RecordAppendResult(future, dq.size() > 1 || batch.isFull(), true); } } finally { if (buffer != null) free.deallocate(buffer); appendsInProgress.decrementAndGet(); } }

上記の recordsBuilder メソッドは、最終的に次の MemoryRecordsBuilder コンストラクターを呼び出します。

 public MemoryRecordsBuilder(ByteBufferOutputStream bufferStream, byte magic, CompressionType compressionType, TimestampType timestampType, long baseOffset, long logAppendTime, long producerId, short producerEpoch, int baseSequence, boolean isTransactional, boolean isControlBatch, int partitionLeaderEpoch, int writeLimit) { //省略其他代码this.appendStream = new DataOutputStream(compressionType.wrapForOutput(this.bufferStream, magic)); }

上記の wrapForOutput メソッドは、設定された圧縮アルゴリズムに従って圧縮するか、圧縮しないかを決定します。現在、Kafka は gzip、snappy、lz4 の圧縮アルゴリズムをサポートしています。バージョン 2.1.0 以降、Kafka は Zstandard アルゴリズムをサポートします。

ブローカー側では、検証を行うためにヘッダーが解凍されますが、メッセージ本文は解凍されません。メッセージ本体はコンシューマー側で解凍されます。コンシューマーがメッセージのバッチを取得した後、最初にそれらを解凍し、次にメッセージを処理します。

圧縮と解凍は CPU を集中的に使用する操作であるため、メッセージ圧縮を有効にする場合は、プロデューサーとコンシューマーの CPU リソースも考慮する必要があります。

メッセージのバッチ収集と圧縮により、Kafka プロデューサーがメッセージを送信するプロセスは次のようになります。

3. ディスクのシーケンシャル読み取りと書き込み

連続的な読み取りと書き込みにより、アドレス指定の時間が節約され、1 回のアドレス指定で連続的な読み取りと書き込みが可能になります。

SSD では、シーケンシャル読み取りおよび書き込みのパフォーマンスは、ランダム読み取りおよび書き込みのパフォーマンスよりも数倍高くなります。機械式ハードドライブでは、アドレス指定時に磁気ヘッドを移動する必要があり、この機械的な移動に多くの時間がかかります。したがって、機械式ハードドライブのシーケンシャル読み取りおよび書き込みパフォーマンスは、ランダム読み取りおよび書き込みの何十倍も高くなります。

メッセージ データを書き込むとき、Kafka のブローカーはまず各パーティションのファイルを作成し、次にファイルに対応するディスク領域にデータを順番に追加します。ファイルがいっぱいの場合は、データの追加を続行するために新しいファイルを作成します。これにより、アドレス指定時間が大幅に短縮され、読み取りおよび書き込みのパフォーマンスが向上します。

4. ページキャッシュ

Linux システムでは、すべてのファイル IO 操作は、ディスク ファイル用にメモリ内に作成されるキャッシュである PageCache を経由する必要があります。アプリケーションがファイルを読み書きする場合、ディスク上のファイルを直接読み書きするのではなく、PageCache を操作します。

アプリケーションがファイルを書き込む場合、最初にデータが PageCache に書き込まれ、その後、オペレーティング システムが PageCache データを定期的にディスクに書き込みます。以下のように表示されます。

アプリケーションがファイル データを読み取るとき、まずそのデータが PageCache 内にあるかどうかを判断します。そうであれば、データを直接読み取ります。そうでない場合は、ディスクを読み取り、データを PageCache にキャッシュします。

Kafka は PageCache の利点を最大限に活用します。プロデューサーがメッセージを生成する速度がコンシューマーがメッセージを消費する速度と同程度の場合、Kafka は基本的にメッセージをディスクに書き込まずにメッセージの送信を完了できます。

5. ゼロコピー

Kafka Broker がコンシューマーにメッセージを送信する場合、PageCache にヒットしたとしても、まず PageCache 内のデータをアプリケーションのメモリ領域にコピーし、次にアプリケーションのメモリ領域からソケット バッファ領域にコピーしてから、データを送信する必要があります。以下のように表示されます。

Kafka はゼロコピー技術を使用して、データを PageCache からソケット バッファに直接コピーするため、データをユーザー状態メモリ領域にコピーする必要がありません。同時に、DMA コントローラは CPU の関与を必要とせずにデータのコピーを直接完了します。以下のように表示されます。

Java ゼロコピー テクノロジーは、最下層の sendfile メソッドを呼び出す FileChannel.transferTo() メソッドを使用します。

6. mmap

Kafka のログ ファイルは、データ ファイル (.log) とインデックス ファイル (.index) に分かれています。インデックス ファイルの読み取りパフォーマンスを向上させるために、Kafka はインデックス ファイルに mmap メモリ マッピングを使用し、インデックス ファイルをプロセスのメモリ領域にマッピングします。これにより、インデックス ファイルの読み取り時にディスクから読み取る必要がなくなります。以下のように表示されます。

7. まとめ

この記事では、Kafka が高パフォーマンスを実現するために使用する主要なテクノロジーを紹介します。これらの技術は私たちの研究と仕事の参考になります。

<<:  Traefik Proxy v3.0 の画期的な機能を 1 つの記事で理解する

>>:  Kubernetesネットワークモデルの包括的なガイドについてお話ししましょう

推薦する

A5 署名外部リンクのキャンセル: フォーラム署名に関するいくつかの提案

序文:実は、A5さんが署名を撤回した今日、この話題について書きたかったのですが、自分のアカウントの懸...

ロンドンオリンピック:ソーシャルメディア規制は難しすぎる

テンセントテクノロジーニュース(呉記)北京時間8月2日、海外メディアの報道によると、ロンドンオリンピ...

IPv6時代の到来: 砂粒一つ一つにアドレスがある

著者: 徐明偉楊朔インターネットの急速な発展により、既存の IPv4 (インターネット プロトコル ...

クラウドストレージ≠クラウドバックアップ、その違いを見てみましょう

データ爆発の時代において、クラウド コンピューティングは生産や生活の場でますます利用されるようになっ...

構築中にモバイルウェブサイトの利用率を向上させるための重要なポイント

ショートビデオ、セルフメディア、インフルエンサーのためのワンストップサービスほとんどのオフィスワーカ...

dediserve-7 USD/13 コンピュータ ルーム/KVM/2 GB メモリ/50 GB SSD/2 TB トラフィック

Dediserve では頻繁に VPS プロモーションを実施しており、その他のプロモーションはありま...

WeChatマーケティング運用に関する販売者の実践メモ

1. WeChatマーケティングを正しく理解する1. WeChatとは何ですか? WeChatはコミ...

パーフェクトダイアリーのカードを台無しにしたのは誰ですか?

今年4月、疫病が流行する中、 Perfect Diary (別名「Yatsen E-Commerce...

なぜ SaaS は中年男性にとってのスタートアップの楽園となったのでしょうか?

この記事を読みに来る人は、SaaS で働く人と中年男性の 2 種類しかないことはわかっています。おそ...

過小評価できないロングテールの力は、大量のトラフィックを生み出すサイトを作る

最近、小学校の作文についての記事を企画していたのですが、自分より優れた人は必ずいるのだということに気...

ストレージを改善する 5 つのマルチクラウド ユースケース

マルチクラウド ストレージ テクノロジーが主流になるにつれて、その使用事例は急速に増加しています。し...

新しいサイトのSEOウェブサイトランキング最適化フレンドリーなリンク交換戦略

友情リンクとは何ですか?フレンドリー リンクは、インタラクティブなアンカー テキスト リンクとしても...

KOL一掃の裏で、小紅書の「収益化クローズドループ」はどんどん遠ざかっているのか?

「今、私たちは金鉱のような存在で、多くの人が来て掘りたがっています。」 5月15日、小紅書の創業者Q...

革新を追求し、協力を促進しましょう!興蘭テクノロジーのデータ伝送セキュリティセミナーが成功裏に終了

総書記のサイバー強国建設に関する重要な思想を徹底的に実行し、国家全体の安全保障観を実践し、発展と安全...