Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

Kafka の高パフォーマンスの原理を理解するのに役立つ 6 つの技術的ポイント

みなさんこんにちは。ジュン兄です。

Kafka は、1 秒あたり数千万件のメッセージを処理できる優れたパフォーマンスを備えたメッセージ キューです。今日は、Kafka の高パフォーマンスの背後にある技術的な原理についてお話ししましょう。

1. 一括送信

Kafka はメッセージをバッチで処理します。 Kafka プロデューサーがメッセージを送信するためのコードを見てみましょう。

 private Future<RecordMetadata> doSend(ProducerRecord<K, V> record, Callback callback) { TopicPartition tp = null; try { //省略前面代码Callback interceptCallback = new InterceptorCallback<>(callback, this.interceptors, tp); //把消息追加到之前缓存的这一批消息上RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey, serializedValue, headers, interceptCallback, remainingWaitMs); //积累到设置的缓存大小,则发送出去if (result.batchIsFull || result.newBatchCreated) { log.trace("Waking up the sender since topic {} partition {} is either full or getting a new batch", record.topic(), partition); this.sender.wakeup(); } return result.future; // handling exceptions and record the errors; // for API exceptions return them in the future, // for other exceptions throw directly } catch /**省略catch 代码*/ }

コードからわかるように、プロデューサーは doSend メソッドを呼び出した後、メッセージを直接送信するのではなく、メッセージをキャッシュします。キャッシュされたメッセージの量が設定されたバッチ サイズに達するまで、メッセージは送信されません。

注:上記の accumulator.append コードから、メッセージのバッチが同じトピックの同じパーティションに属していることがわかります。

ブローカーはメッセージを受信した後、バッチ メッセージを単一のメッセージに解析してディスクに書き込みません。代わりに、バッチ メッセージとしてディスクに書き込み、バッチ メッセージを他のレプリカに直接同期します。

コンシューマーがメッセージをプルする場合、メッセージを個別にプルするのではなく、バッチでプルします。一連のメッセージをプルした後、それらは消費のために単一のメッセージに解析されます。

メッセージのバッチ送受信を使用すると、クライアントとブローカー間のやり取りの回数が減り、ブローカーの処理能力が向上します。

2. メッセージの圧縮

メッセージ本文が大きい場合、Kafka メッセージのスループットは数千万に達する必要があり、ネットワーク カードでサポートされるネットワーク伝送帯域幅がボトルネックになります。 Kafka のソリューションはメッセージの圧縮です。メッセージを送信するときに、パラメータ compression.type を追加すると、メッセージの圧縮を有効にすることができます。

 public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); //开启消息压缩props.put("compression.type", "gzip"); Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>("my_topic", "key1", "value1"); producer.send(record, new Callback() { @Override public void onCompletion(RecordMetadata metadata, Exception exception) { if (exception != null) { logger.error("sending message error: ", e); } else { logger.info("sending message successful, Offset: ", metadata.offset()); } } }); producer.close(); }

compression.type の値が none に設定されている場合、圧縮は有効になりません。メッセージはいつ圧縮されますか?前述したように、プロデューサーはメッセージを送信する前に一連のメッセージをキャッシュし、送信する前に圧縮します。コードは次のとおりです。

 public RecordAppendResult append(TopicPartition tp, long timestamp, byte[] key, byte[] value, Header[] headers, Callback callback, long maxTimeToBlock) throws InterruptedException { // ... try { // ... buffer = free.allocate(size, maxTimeToBlock); synchronized (dq) { //... RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callback, dq); if (appendResult != null) { // Somebody else found us a batch, return the one we waited for! Hopefully this doesn't happen often... return appendResult; } //这批消息缓存已满,这里进行压缩MemoryRecordsBuilder recordsBuilder = recordsBuilder(buffer, maxUsableMagic); ProducerBatch batch = new ProducerBatch(tp, recordsBuilder, time.milliseconds()); FutureRecordMetadata future = Utils.notNull(batch.tryAppend(timestamp, key, value, headers, callback, time.milliseconds())); dq.addLast(batch); incomplete.add(batch); // Don't deallocate this buffer in the finally block as it's being used in the record batch buffer = null; return new RecordAppendResult(future, dq.size() > 1 || batch.isFull(), true); } } finally { if (buffer != null) free.deallocate(buffer); appendsInProgress.decrementAndGet(); } }

上記の recordsBuilder メソッドは、最終的に次の MemoryRecordsBuilder コンストラクターを呼び出します。

 public MemoryRecordsBuilder(ByteBufferOutputStream bufferStream, byte magic, CompressionType compressionType, TimestampType timestampType, long baseOffset, long logAppendTime, long producerId, short producerEpoch, int baseSequence, boolean isTransactional, boolean isControlBatch, int partitionLeaderEpoch, int writeLimit) { //省略其他代码this.appendStream = new DataOutputStream(compressionType.wrapForOutput(this.bufferStream, magic)); }

上記の wrapForOutput メソッドは、設定された圧縮アルゴリズムに従って圧縮するか、圧縮しないかを決定します。現在、Kafka は gzip、snappy、lz4 の圧縮アルゴリズムをサポートしています。バージョン 2.1.0 以降、Kafka は Zstandard アルゴリズムをサポートします。

ブローカー側では、検証を行うためにヘッダーが解凍されますが、メッセージ本文は解凍されません。メッセージ本体はコンシューマー側で解凍されます。コンシューマーがメッセージのバッチを取得した後、最初にそれらを解凍し、次にメッセージを処理します。

圧縮と解凍は CPU を集中的に使用する操作であるため、メッセージ圧縮を有効にする場合は、プロデューサーとコンシューマーの CPU リソースも考慮する必要があります。

メッセージのバッチ収集と圧縮により、Kafka プロデューサーがメッセージを送信するプロセスは次のようになります。

3. ディスクのシーケンシャル読み取りと書き込み

連続的な読み取りと書き込みにより、アドレス指定の時間が節約され、1 回のアドレス指定で連続的な読み取りと書き込みが可能になります。

SSD では、シーケンシャル読み取りおよび書き込みのパフォーマンスは、ランダム読み取りおよび書き込みのパフォーマンスよりも数倍高くなります。機械式ハードドライブでは、アドレス指定時に磁気ヘッドを移動する必要があり、この機械的な移動に多くの時間がかかります。したがって、機械式ハードドライブのシーケンシャル読み取りおよび書き込みパフォーマンスは、ランダム読み取りおよび書き込みの何十倍も高くなります。

メッセージ データを書き込むとき、Kafka のブローカーはまず各パーティションのファイルを作成し、次にファイルに対応するディスク領域にデータを順番に追加します。ファイルがいっぱいの場合は、データの追加を続行するために新しいファイルを作成します。これにより、アドレス指定時間が大幅に短縮され、読み取りおよび書き込みのパフォーマンスが向上します。

4. ページキャッシュ

Linux システムでは、すべてのファイル IO 操作は、ディスク ファイル用にメモリ内に作成されるキャッシュである PageCache を経由する必要があります。アプリケーションがファイルを読み書きする場合、ディスク上のファイルを直接読み書きするのではなく、PageCache を操作します。

アプリケーションがファイルを書き込む場合、最初にデータが PageCache に書き込まれ、その後、オペレーティング システムが PageCache データを定期的にディスクに書き込みます。以下のように表示されます。

アプリケーションがファイル データを読み取るとき、まずそのデータが PageCache 内にあるかどうかを判断します。そうであれば、データを直接読み取ります。そうでない場合は、ディスクを読み取り、データを PageCache にキャッシュします。

Kafka は PageCache の利点を最大限に活用します。プロデューサーがメッセージを生成する速度がコンシューマーがメッセージを消費する速度と同程度の場合、Kafka は基本的にメッセージをディスクに書き込まずにメッセージの送信を完了できます。

5. ゼロコピー

Kafka Broker がコンシューマーにメッセージを送信する場合、PageCache にヒットしたとしても、まず PageCache 内のデータをアプリケーションのメモリ領域にコピーし、次にアプリケーションのメモリ領域からソケット バッファ領域にコピーしてから、データを送信する必要があります。以下のように表示されます。

Kafka はゼロコピー技術を使用して、データを PageCache からソケット バッファに直接コピーするため、データをユーザー状態メモリ領域にコピーする必要がありません。同時に、DMA コントローラは CPU の関与を必要とせずにデータのコピーを直接完了します。以下のように表示されます。

Java ゼロコピー テクノロジーは、最下層の sendfile メソッドを呼び出す FileChannel.transferTo() メソッドを使用します。

6. mmap

Kafka のログ ファイルは、データ ファイル (.log) とインデックス ファイル (.index) に分かれています。インデックス ファイルの読み取りパフォーマンスを向上させるために、Kafka はインデックス ファイルに mmap メモリ マッピングを使用し、インデックス ファイルをプロセスのメモリ領域にマッピングします。これにより、インデックス ファイルの読み取り時にディスクから読み取る必要がなくなります。以下のように表示されます。

7. まとめ

この記事では、Kafka が高パフォーマンスを実現するために使用する主要なテクノロジーを紹介します。これらの技術は私たちの研究と仕事の参考になります。

<<:  Traefik Proxy v3.0 の画期的な機能を 1 つの記事で理解する

>>:  Kubernetesネットワークモデルの包括的なガイドについてお話ししましょう

推薦する

インフルエンサーマーケティングを通じてウェブサイトの SEO を強化するにはどうすればよいでしょうか?

現在、多くの海外企業で最もよく使われているプロモーション戦略の一つが、インフルエンサーマーケティング...

vsys.host: ウクライナ\オランダのオフショア VPS\10Gbps 帯域幅サーバー\GPU サーバー\ストレージ サーバー、ルーズ コンテンツ

vsys.host というドメイン名は 2009 年に登録されましたが、公式の宣伝では 2009 年...

テンセント、フィッシングサイトとしてQQの大規模データ漏洩に反応

大規模なQQデータ漏洩により、パスワードや友達サークルなどの個人情報を閲覧できる可能性があると報告さ...

春節の紅包を「誘拐」したのは誰ですか?

現在、Douyinの春節紅包は20億枚、Kuaishouの21億枚、Baiduの22億枚、Weibo...

テンセントのオープンプラットフォームは30億元のパイを持っている:美しく見えるが、現実は非常に暗い

王進著今年末までに、テンセントオープンプラットフォームは開発者に30億元を分配する予定です。これは魅...

HarmonyOS 分散チャットルームアプリケーション

[[434771]]詳細については、以下をご覧ください。 51CTOとHuaweiが共同で構築したH...

サイト上の隠しリンクがもたらす3つの深刻な影響について簡単に説明します

一般的に、サイトはリンクで接続された無数の画像やその他の形式のメディアで構成されていると言えます。ま...

機密情報ステーションのプロモーションに関する雑感:効率的なプロモーションは意思決定から生まれる

私は長年、電子商取引サイトや地域ポータルサイトのオンラインプロモーション業務に携わってきました。その...

ハッカー組織の内部:10,000アカウントの卸売価格は50元

中国のネットユーザーの情報は一夜にしてパッケージファイルとなり、ネット上で拡散した。個人の銀行情報や...

ウェブサイトのコンバージョン率が低い場合の解決策の分析

ウェブサイトのコンバージョン率が低いことのいくつかの兆候、主にウェブサイトのコンバージョン率が低いい...

温州市では人人大が金融計画の発行を禁止されているが、グレーな地位から抜け出すのは難しい

劉愛林人人代(正式名称「人人代ビジネスコンサルタント(北京)有限公司」)は、10回連続で財務計画を発...

この写真は私が撮った写真の 1 枚です。この写真が原因で、数十の Web サイトが閉鎖されました。

最近、政府はインターネットの管理を強化しており、簡単な個人ブログを開設するにも、何段階もの承認と申請...

hosteons: INAP(ロサンゼルス+ニューヨーク)を追加、評価データ+複数の割引コードが引き続き放送

Hosteons の INAP データ センターは、実際には数日間稼働しています。最近何かの理由で遅...

virmach - 年間 3 ドル / 256 MB メモリ / 15 GB SSD / 500 GB トラフィック / 1G ポート

virmach は常に人々に驚きをもたらします。数日前、同社は年間 5 ドルの VPS を開始しまし...