Kafka のメッセージ送信保証メカニズムは非常に直感的です。プロデューサーがブローカーにメッセージを送信すると、メッセージがコミットされると、レプリケーション メカニズムが存在するため、メッセージは失われません。ただし、プロデューサーがブローカーにデータを送信した後にネットワークの問題が発生し、通信が中断された場合、プロデューサーはメッセージがコミットされたかどうかを判断できません。 Kafka はネットワーク障害時に何が起こったのかを判断できませんが、プロデューサーはメッセージがブローカーに正しく送信されたことを確認するために複数回再試行できるため、Kafka は現在少なくとも 1 回は実装しています。 1. 冪等性1. シナリオいわゆるべき等性とは、インターフェースへの複数の呼び出しの結果が単一の呼び出しの結果と同じであることを意味します。プロデューサーは再試行時にメッセージを繰り返し書き込む可能性がありますが、これは Kafka のべき等性機能を使用することで回避できます。 冪等性は条件付きです: プロデューサーが単一セッション内で損失や重複が発生しないことを保証することのみが可能です。プロデューサーが予期せずクラッシュして再起動した場合、これは保証されません (べき等性の場合、以前の状態情報を取得することは不可能であるため、セッション間で損失や重複をゼロにすることは不可能です)。 冪等性は複数のトピック パーティションにまたがることはできず、単一のパーティション内でのみ冪等性を保証できます。複数のトピック パーティションが関係する場合、その間の状態は同期されません。 Producer でべき等性を使用する例は非常に単純です。 Producer の通常の使用方法とあまり変わりません。以下に示すように、Producer 構成の enable.idempotence を true に設定するだけです。
2. 事務1. シナリオべき等性は複数のパーティション間では機能しませんが、トランザクションによってこの欠点を補うことができます。トランザクションにより、複数のパーティションへの書き込み操作のアトミック性が保証されます。操作の原子性とは、複数の操作がすべて成功するか、すべて失敗するかのいずれかであり、部分的な成功や部分的な失敗の可能性がないことを意味します。 トランザクションを実装するには、ネットワーク障害によって、クライアント プログラムを通じて設定される一意の transactionalId が提供される必要があります。 コードリポジトリを参照してください: com.heima.kafka.chapter7.ProducerTransactionSend
2. 事前準備トランザクションでは、プロデューサーが冪等性を有効にする必要があります。したがって、transactional.id パラメータを空でない値に設定してトランザクションを有効にする場合は、ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG も true に設定する必要があります (デフォルト値は true)。明示的に false に設定されている場合、例外がスローされます。 KafkaProducer は、次の 5 つのトランザクション関連のメソッドを提供します。
3. 事例分析コードリポジトリを参照してください:
メッセージ送信者
トランザクションロールバックケースのシミュレーション
上記のケースでは、msg1 が正常に送信された後、異常なトランザクションが発生してロールバックされ、msg1 コンシューマーはメッセージを受信できません。 3. コントローラーKafka クラスターには 1 つ以上のブローカーがあり、そのうちの 1 つがコントローラー (Kafka コントローラー) として選出され、クラスター全体のすべてのパーティションとレプリカのステータスを管理する役割を担います。パーティションのリーダー レプリカに障害が発生した場合、コントローラーはパーティションの新しいリーダー レプリカを選択する責任を負います。パーティションの ISR セットで変更が検出されると、コントローラはすべてのブローカーにメタデータ情報を更新するように通知する役割を担います。 kafka-topics.sh スクリプトを使用してトピックのパーティション数を増やす場合でも、パーティションの再割り当てはコントローラーが担当します。 Kafka でのコントローラーの選択は Zookeeper に依存します。コントローラーに対して正常に実行されたブローカーは、Zookeeper に一時的な (EPHEMERAL) ノード /controller を作成します。この一時ノードの内容は次のとおりです。 1. ZooInspector 管理管理には、Zookeeper グラフィカル クライアント ツール (ZooInspector) によって提供される jar を使用し、次のように起動します。
現在のバージョンでは、version は 1 に固定され、brokerid はコントローラーとして選出されたブローカーの ID 番号を示し、timestamp はコントローラーの選出が行われたタイムスタンプを示します。 クラスター内には常に 1 つのコントローラーのみが存在します。各ブローカーが起動すると、/controller ノードの brokerid 値を読み取ろうとします。読み取られた brokerid 値が -1 でない場合、別のブローカー ノードがコントローラーに対して正常に実行されたことを意味し、現在のブローカーは選出を放棄します。 Zookeeper に /controller ノードが存在しない場合、またはこのノードのデータが異常な場合は、/controller ノードを作成しようとします。現在のブローカーがノードを作成すると、他のブローカーも同時にこのノードを作成しようとする場合があります。ノードを正常に作成したブローカーのみがコントローラーになり、ノードの作成に失敗したブローカーは選出に失敗したことを意味します。各ブローカーは、現在のコントローラーの brokerid 値をメモリに保存します。これは、activeControllerId として識別できます。 Zookeeper のコントローラーに関連する /controller_epoch ノードもあります。このノードは永続的 (PERSISTENT) ノードであり、整数の controller_epoch 値を格納します。 controller_epoch は、コントローラーが変更された回数を記録するために使用されます。つまり、現在のコントローラーの世代を記録するために使用され、「コントローラー エポック」とも呼ばれます。 controller_epoch の初期値は 1 です。つまり、クラスター内の最初のコントローラーのエポックは 1 です。コントローラーが変更されると、新しいコントローラーが選択されなければ、このフィールドの値は 1 増加します。コントローラーと対話する各リクエストには、controller_epoch フィールドが含まれます。リクエストの controller_epoch 値がメモリ内の controller_epoch 値より小さい場合、リクエストは期限切れのコントローラに送信されたとみなされ、リクエストは無効とみなされます。要求された controller_epoch 値がメモリ内の controller_epoch 値より大きい場合、新しいコントローラが選択されたことを意味します。 Kafka は controller_epoch を使用してコントローラーの一意性を保証し、それによって関連する操作の一貫性を確保していることがわかります。 コントローラー ステータスを持つブローカーには、他の通常のブローカーよりも 1 つ多くの責任があります。詳細は以下の通りです。
4. 信頼性の保証
1. 期限切れのコピーパーティションに同期失敗状態のレプリカがあるかどうかを確認する方法を教えてください。 Kafka バージョン 0.9.x 以降では、単一のパラメータ replica.lag.time.max.ms によって制御されます (デフォルトのサイズは 10,000)。 ISR 内のフォロワー レプリカが、パラメーター replica.lag.time.max.ms で指定された値を超えてリーダー レプリカより遅れている場合、レプリカは無効とみなされ、このフォロワー レプリカを ISR から削除する必要があります。具体的な実装原理は非常にシンプルです。フォロワーコピーがリーダーコピーの LEO (Log End Offset、各パーティションの最後のメッセージの位置) より前のすべてのログを同期すると、フォロワーコピーがリーダーコピーに追いついたとみなされ、この時点でコピーの lastCaughtUpTimeMs フラグが更新されます。 Kafka の ReplicaManager が起動すると、レプリカの有効期限検出のためのスケジュールされたタスクが開始されます。このスケジュールされたタスクは、現在の時刻とレプリカの lastCaughtUpTimeMs の差が、パラメーター replica.lag.time.max.ms で指定された値より大きいかどうかを定期的にチェックします。フォロワー コピーがリーダー コピーからデータを取得する限り、lastCaughtUpTimeMs を更新すると誤解しないでください。リーダー コピーのメッセージ流入率がフォロワー コピーのプル率よりも大きい場合、フォロワー コピーはリーダー コピーからメッセージをプルし続け、リーダー コピーと同期できないとします。このフォロワー コピーが ISR に配置されている場合、リーダー コピーに障害が発生し、このフォロワー コピーが新しいリーダー コピーとして選択されると、重大なメッセージ損失が発生します。 2. コピーKafka の各トピック パーティションは n 回複製されます。ここで、n はトピックのレプリケーション係数です。これにより、クラスター サーバーに障害が発生した場合に Kafka がこれらのレプリカに自動的に切り替えられるため、障害発生時にもメッセージが引き続き利用可能になります。 Kafka のレプリケーションはパーティションの粒度に基づいており、パーティションの先行書き込みログは n 台のサーバーに複製されます。 n 個のレプリカのうち、1 つのレプリカがリーダーとして機能し、他のレプリカはフォロワーになります。名前が示すように、プロデューサーはリーダー パーティションにのみデータを書き込むことができ (読み取りはリーダー パーティションからのみ実行可能)、フォロワーはリーダーからログを順番にコピーすることのみが可能です。 レプリカがリーダーと同期しなくなる理由はいくつかあります。フォロワーが一定期間内にリーダーに追いつくことができない場合などです。最も一般的な理由の 1 つは、I/O ボトルネックにより、フォロワーがリーダーからプルするよりも遅い速度でレプリケーション メッセージを追加することです。スタックしたレプリカ: フォロワーは一定期間、リーダーからのリクエストのプルを停止します。フォロワー レプリカは、GC の一時停止、フォロワーの障害または停止により停止しています。 新しく開始されたレプリカ: ユーザーがトピックのレプリケーション係数を増やすと、新しいフォロワーは、リーダー ログに完全に追いつくまで、同期レプリカのリストに表示されません。 レプリカが遅れているかどうかを判断する方法:
サーバー側で設定する必要があるパラメータは、replica.lag.time.max.ms の 1 つだけです。このパラメータは、レプリカがパーティション リーダーに応答するまでの最大待機時間を説明します。スタックまたは失敗したレプリカをプローブします - レプリカが失敗し、プル リクエストの送信間隔が replica.lag.time.max.ms を超える場合。 Kafka はこのレプリカが無効であると見なし、同期されたレプリカのリストから削除します。遅いレプリカを検出するメカニズムが変更されました - レプリカがリーダーより replica.lag.time.max.ms 以上遅れ始めた場合。 Kafka はそれを遅すぎると判断し、同期レプリカのリストから削除します。リーダーへのレプリカ要求の間隔が replica.lag.time.max.ms より大きくない場合、リーダーはトラフィックの急増を引き起こし、メッセージを大きなバッチで書き込みます。 Kafka は同期中のレプリカのリストからレプリカを削除しません。 リーダーエポックリファレンスデータ損失のシナリオ データの不整合のシナリオ カフカ 0.11.0.0。バージョン ソリューション上記の 2 つの問題の根本的な原因は、HW 値がレプリカ バックアップの成功を測定するために使用され、障害発生時にログを切り捨てる基準として使用されていることです。ただし、HW 値の更新は非同期的に遅延され、特に更新するには追加の FETCH 要求処理プロセスが必要になります。したがって、途中でクラッシュが発生すると、HW 値が期限切れになる可能性があります。これらの理由から、Kafka 0.11 では HW 値の代わりにリーダー エポックが導入されました。リーダー側は、リーダーのエポック情報を保存するための追加のメモリ領域を割り当てるため、上記 2 つのシナリオが発生した場合でも、これらの問題を十分に回避できます。 いわゆるリーダー エポックは、実際には値のペア (エポック、オフセット) です。エポックは、0 から始まるリーダーのバージョン番号を表します。リーダーが 1 回変更されると、エポックは +1 になり、オフセットは、このエポック バージョンのリーダーによって書き込まれた最初のメッセージの変位に対応します。次のような 2 つの値のペアがあるとします。
これは、最初のリーダーがオフセット 0 からメッセージの書き込みを開始することを意味します。合計120件のメッセージ[0, 119]が書き込まれます。 2 番目のリーダーのバージョン番号は 1 で、オフセット 120 からメッセージの書き込みを開始します。 このようなキャッシュはリーダー ブローカーに保存され、定期的にチェックポイント ファイルに書き込まれます。 データ損失を回避する: データの不整合を回避する 6. メッセージの重複に関するシナリオと解決策1. プロデューサー側の重複プロデューサーによって送信されたメッセージは正しいブレーク応答を受信できなかったため、プロデューサーは再試行します。 プロデューサーがメッセージを送信し、メッセージがディスクに書き込まれた後、送信者はネットワークなどのさまざまな理由により失敗またはネットワーク中断の応答を受信し、その後プロデューサーは回復可能な例外再試行メッセージを受信し、その結果、メッセージが重複します。 解決:
Kafka のべき等性を有効にするために、コードを変更する必要はありません。デフォルトでは無効になっています。設定ファイルを変更する必要があります: enable.idempotence=true、require ack=all、retries>1。
メッセージが失われる可能性があります。これは、ログ収集など、データ損失よりもスループットが重要な状況に適しています。 消費者側の重複根本的な原因 データが消費された後、オフセットがブローカーに時間内に送信されません。 解決自動コミットをキャンセルする 消費が完了するたび、またはプログラムが終了するたびに手動で送信します。重複が保証されるわけではありません。 下流冪等性 一般的な解決策は、ダウンストリームをべき等にするか、消費される各メッセージのオフセットを記録することです。いくつかの厳密なシナリオでは、正確な更新を保証するために、注文 ID や下流ステータス更新などのオフセットまたは一意の ID を同じデータベース トランザクションに配置するか、消費オフセットを同時に下流データ テーブルに記録し、その後、下流データを更新するときに消費サイトを使用して楽観的ロックを実行して、古いサイトでのデータ更新を拒否する必要がある場合があります。 7. __コンシューマーオフセット_consumer_offsets は、ユーザーに対して透過的な内部トピックです。データ ファイルとログに時々表示される以外、ユーザーは一般にこのトピックを認識していません。しかし、新しいバージョンの Kafka コンシューマーの変位情報が格納されていることはわかっています。 1. いつ作成されましたか?一般に、トピック __consumer_offsets は、最初のコンシューマーがクラスター内のメッセージを消費するときに自動的に作成されます。パーティションの数は、offsets.topic.num.partitions パラメータで設定できます。デフォルト値は、以下に示すように 50 です。 2. パーティションの解析コードリポジトリを参照してください:
すべてのパーティションを取得します。 要約するこの章では、主に冪等性やトランザクション処理などの Kafka 関連の安定性操作について説明します。また、信頼性と一貫性の保証、メッセージの重複と解決策についても説明します。 |
<<: Kube-vip を使用して高可用性の Kubernetes クラスターを構築する (フル バージョン)
>>: アンチャンがKCSP資格を取得し、クラウドネイティブの強みが再び国際的に認められる
fatcow からメールでプロモーション情報を受け取りました。無制限の Web サイト構築と仮想ホス...
多くのウェブマスターは、ウェブサイトのランキングが突然消える状況に遭遇しています。この場合、ウェブマ...
2017年11月30日、創業邦主催の中国企業サービスサミットが北京国家会議センターで盛大に開催されま...
馬華クラウドの毎年恒例の「双十一」イベントも始まりました。香港クラウドCN2回線と安徽モバイルバック...
データミドルプラットフォームの開発は、一般的に、データベース、データウェアハウス、ビッグデータプラッ...
私たちの業界は、Docker、Docker Compose、Kubernetes などのテクノロジー...
1980 年代初頭と比較すると、今日のデータベース技術は大きく進歩しました。ハードウェアの選択に関し...
北京時間10月22日、Adobeは最新の第3四半期インターネット広告データレポートで、モバイルトラフ...
2015年以来、紅包は毎年の春節の美しい一面となっています。アリババを代表として、テンセント、百度、...
t667 (olvps) は、米国ロサンゼルスの安昌コンピュータルームで 200Mbps の帯域幅を...
ソニーのPS4の中国での発売日が近づくにつれ、このデバイスがリージョンロックされていないというニュー...
Gongyi は、シカゴにデータセンターがある Cloudive から特別版の 2G メモリ KVM...
クラウドでのデータの保存と処理にかかるコストと効率性への注目が高まるにつれ、多くの企業が業務をクラウ...
企業は、データセンターの運用コストを削減しながら、生産性、ビジネスの回復力、持続可能性を向上させるこ...
少し前に、私たちはネットユーザーに多くの「偽の」グラフィック カードを公開しました。 PS マスター...