暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Kafka消费者--如何管理偏移量

大数据哔哔机 2019-10-13
944

想看干货文章,戳左边蓝色按钮吧

引言

在实际的项目开发中,消费kafka的过程中需要不断的更新偏移量,以便应用程序在重启过后能够从上次消费的位置开始继续消费数据,本篇推文让我们来看看管理偏移量的几种方式。以及如何保证消费端的Exactly Once。

正文

1. 自动提交

最简单的提交方式是让消费者自动提交偏移量。如果 enable.auto.commit 被设为 true,那么每过 5s,消费者会自动把从 poll() 方法接收到的最大偏移量提交上去。提交时间间隔由 auto.commit.interval.ms 控制,默认值是5s。消费者每次获取新数据时都会先把上一次poll()方法返回的最大偏移量提交上去。

可能造成的问题:数据重复读

假设我们仍然使用默认的 5s 提交时间间隔,在最近一次提交之后的 3s 发生了再均衡,再均衡之后,消费者从最后一次提交的偏移量位置开始读取消息。这个时候偏移量已经落后了 3s,所以在这 3s内到达的消息会被重复处理。可以通过修改提交时间间隔来更频繁地提交偏移量,减小可能出现重复消息的时间窗,不过这种情况是无法完全避免的。

2. 手动提交

(1) 同步提交

  1. // 把auto.commit.offset设为false,让应用程序决定何时提交偏移量

  2. props.put("auto.commit.offset", false);


  3. try{

  4. while(true) {

  5. ConsumerRecords<String, String> records = consumer.poll(1000);

  6. for(ConsumerRecord<String, String> record : records) {

  7. // 假设把记录内容打印出来就算处理完毕

  8. System.out.println("value = " + record.value() + ", topic = " + record.topic() +

  9. ", partition = " + record.partition() + ", offset = " + record.offset());

  10. }


  11. try{

  12. // 只要没有发生不可恢复的错误,commitSync() 方法会一直尝试直至提交成功

  13. // 如果提交失败,我们也只能把异常记录到错误日志里

  14. consumer.commitSync();

  15. }catch(CommitFailedException e) {

  16. System.err.println("commit failed!" + e.getMessage());

  17. }

  18. }

  19. }finally {

  20. consumer.close();

  21. }

(2) 异步提交

手动提交有一个不足之处,在 broker 对提交请求作出回应之前,应用程序会一直阻塞,这样会限制应用程序的吞吐量。我们可以通过降低提交频率来提升吞吐量,但如果发生了再均衡,会增加重复消息的数量。

这个时候可以使用异步提交,只管发送提交请求,无需等待 broker 的响应。

  1. // 把auto.commit.offset设为false,让应用程序决定何时提交偏移量

  2. props.put("auto.commit.offset", false);


  3. try{

  4. while(true) {

  5. ConsumerRecords<String, String> records = consumer.poll(1000);

  6. for(ConsumerRecord<String, String> record : records) {

  7. System.out.println("value = " + record.value() + ", topic = " + record.topic() +

  8. ", partition = " + record.partition() + ", offset = " + record.offset());

  9. }

  10. // 提交最后一个偏移量,然后继续做其他事情。

  11. consumer.commitAsync();

  12. }

  13. }finally {

  14. consumer.close();

  15. }

在成功提交或碰到无法恢复的错误之前,commitSync()会一直重试,但是commitAsync()不会,这也是commitAsync()不好的一个地方。它之所以不进行重试,是因为在它收到服务器响应的时候,可能有一个更大的偏移量已经提交成功。

假设我们发出一个请求用于提交偏移量2000,这个时候发生了短暂的通信问题,服务器收不到请求,自然也不会作出任何响应。与此同时,我们处理了另外一批消息,并成功提交了偏移量3000。如果commitAsync()重新尝试提交偏移量2000,它有可能在偏移量3000之后提交成功。这个时候如果发生再均衡,就会出现重复消息。

commitAsync()也支持回调,在broker作出响应时会执行回调:

  1. // 把auto.commit.offset设为false,让应用程序决定何时提交偏移量

  2. props.put("auto.commit.offset", false);


  3. try {

  4. while (true) {

  5. ConsumerRecords<String, String> records = consumer.poll(1000);

  6. for (ConsumerRecord<String, String> record : records) {

  7. System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "

  8. + record.partition() + ", offset = " + record.offset());

  9. }

  10. consumer.commitAsync(new OffsetCommitCallback() {

  11. @Override

  12. public void onComplete(Map<TopicPartition, OffsetAndMetadata> offsets, Exception exception) {

  13. if(offsets != null) {

  14. System.out.println("commit offset successful!");

  15. }

  16. if(exception != null) {

  17. System.out.println("commit offset fail!" + exception.getMessage());

  18. }

  19. }

  20. });

  21. }

  22. } finally {

  23. consumer.close();

  24. }

可以在回调中重试失败的提交,以下为思路:使用一个单调递增的序列号来维护异步提交的顺序。在每次提交偏移量之后或在回调里提交偏移量时递增序列号。在进行重试前,先检查回调的序列号和即将提交的偏移量是否相等,如果相等,说明没有新的提交,那么可以安全地进行重试。如果序列号比较大,说明有一个新的提交已经发送出去了,应该停止重试。

(3) 同步和异步组合提交

一般情况下,针对偶尔出现的提交失败,不进行重试不会有太大问题,因为如果提交失败是因为临时问题导致的,那么后续的提交总会有成功的。但如果这是发生在关闭消费者或再均衡前的最后一次提交,就要确保能够提交成功。

  1. try {

  2. while (true) {

  3. ConsumerRecords<String, String> records = consumer.poll(1000);

  4. for (ConsumerRecord<String, String> record : records) {

  5. System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "

  6. + record.partition() + ", offset = " + record.offset());

  7. }

  8. // 如果一切正常,我们使用 commitAsync() 方法来提交

  9. // 这样速度更快,而且即使这次提交失败,下一次提交很可能会成功

  10. consumer.commitAsync();

  11. }

  12. }catch (Exception e) {

  13. e.printStackTrace();

  14. }finally {

  15. try {

  16. // 使用 commitSync() 方法会一直重试,直到提交成功或发生无法恢复的错误

  17. // 确保关闭消费者之前成功提交了偏移量

  18. consumer.commitSync();

  19. }finally {

  20. consumer.close();

  21. }

  22. }

(4) 提交特定的偏移量

不管是自动提交还是使用commitAsync()或者commitSync()来提交偏移量,提交的都是 poll() 方法返回的那批数据的最大偏移量,想要自定义在什么时候提交偏移量可以这么做:

  1. Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>();

  2. int count = 0;


  3. ......


  4. try {

  5. while (true) {

  6. ConsumerRecords<String, String> records = consumer.poll(1000);

  7. for (ConsumerRecord<String, String> record : records) {

  8. System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "

  9. + record.partition() + ", offset = " + record.offset());


  10. currentOffsets.put(new TopicPartition(record.topic(), record.partition()),

  11. new OffsetAndMetadata(record.offset() + 1, "no metadata"));


  12. if (count % 1000 == 0) {

  13. // 这里调用的是 commitAsync(),不过调用 commitSync() 也是完全可以的

  14. // 当然,在提交特定偏移量时,仍然要处理可能发生的错误

  15. consumer.commitAsync(currentOffsets, null);

  16. }


  17. count++;

  18. }

  19. }

  20. }finally {

  21. consumer.close();

  22. }

3. 分区再均衡监听器

消费者在退出和进行分区再均衡之前,应该做一些正确的事情:

提交最后一个已处理记录的偏移量(必须做) 根据之前处理数据的业务不同,你可能还需要关闭数据库连接池、清空缓存等 程序如何能得知集群要进行"分区再均衡"了?消费者 API 提供了再均衡监听器,以下程序可以做到 kafka 消费数据的 Exactly Once 语义:

  1. package com.bonc.rdpe.kafka110.consumer;


  2. import java.util.Collection;

  3. import java.util.Collections;

  4. import java.util.HashMap;

  5. import java.util.Map;

  6. import java.util.Properties;


  7. import org.apache.kafka.clients.consumer.ConsumerRebalanceListener;

  8. import org.apache.kafka.clients.consumer.ConsumerRecord;

  9. import org.apache.kafka.clients.consumer.ConsumerRecords;

  10. import org.apache.kafka.clients.consumer.KafkaConsumer;

  11. import org.apache.kafka.clients.consumer.OffsetAndMetadata;

  12. import org.apache.kafka.common.TopicPartition;


  13. /**

  14. * @Title RebalanceListenerConsumer.java

  15. * @Description 再均衡监听器

  16. * @Author YangYunhe

  17. * @Date 2018-06-27 17:35:05

  18. */

  19. public class RebalanceListenerConsumer {


  20. public static void main(String[] args) {


  21. Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>();


  22. Properties props = new Properties();

  23. props.put("bootstrap.servers", "192.168.42.89:9092,192.168.42.89:9093,192.168.42.89:9094");

  24. // 把auto.commit.offset设为false,让应用程序决定何时提交偏移量

  25. props.put("auto.commit.offset", false);

  26. props.put("group.id", "dev3-yangyunhe-group001");

  27. props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  28. props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

  29. KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);


  30. consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {


  31. /*

  32. * 再均衡开始之前和消费者停止读取消息之后被调用

  33. * 如果在这里提交偏移量,下一个接管分区的消费者就知道该从哪里开始读取了

  34. */

  35. @Override

  36. public void onPartitionsRevoked(Collection<TopicPartition> partitions) {

  37. // 如果发生再均衡,我们要在即将失去分区所有权时提交偏移量

  38. // 要注意,提交的是最近处理过的偏移量,而不是批次中还在处理的最后一个偏移量

  39. System.out.println("Lost partitions in rebalance. Committing current offsets:" + currentOffsets);

  40. consumer.commitSync(currentOffsets);

  41. }


  42. /*

  43. * 在重新分配分区之后和新的消费者开始读取消息之前被调用

  44. */

  45. @Override

  46. public void onPartitionsAssigned(Collection<TopicPartition> partitions) {


  47. long committedOffset = -1;

  48. for(TopicPartition topicPartition : partitions) {

  49. // 获取该分区已经消费的偏移量

  50. committedOffset = consumer.committed(topicPartition).offset();

  51. // 重置偏移量到上一次提交的偏移量的下一个位置处开始消费

  52. consumer.seek(topicPartition, committedOffset + 1);

  53. }


  54. }

  55. });


  56. try {

  57. while (true) {

  58. ConsumerRecords<String, String> records = consumer.poll(1000);

  59. for (ConsumerRecord<String, String> record : records) {

  60. System.out.println("value = " + record.value() + ", topic = " + record.topic() + ", partition = "

  61. + record.partition() + ", offset = " + record.offset());


  62. currentOffsets.put(new TopicPartition(record.topic(), record.partition()),

  63. new OffsetAndMetadata(record.offset() + 1, "no metadata"));

  64. }

  65. consumer.commitAsync(currentOffsets, null);

  66. }

  67. } catch (Exception e) {

  68. e.printStackTrace();

  69. } finally {

  70. try{

  71. consumer.commitSync(currentOffsets);

  72. } catch (Exception e) {

  73. e.printStackTrace();

  74. } finally {

  75. consumer.close();

  76. System.out.println("Closed consumer successfully!");

  77. }

  78. }

  79. }

  80. }

当然你也可以选择再均衡后从头开始消费:

  1. consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {


  2. @Override

  3. public void onPartitionsRevoked(Collection<TopicPartition> partitions) {

  4. System.out.println("starting partitions rebalance...");

  5. }


  6. @Override

  7. public void onPartitionsAssigned(Collection<TopicPartition> partitions) {

  8. consumer.seekToBeginning(partitions);

  9. }

  10. });

  11. 以上代码与 props.put("auto.offset.reset", "earliest");是等效的。


  12. 设置从最新消息开始消费:


  13. consumer.subscribe(Collections.singletonList("dev3-yangyunhe-topic001"), new ConsumerRebalanceListener() {


  14. @Override

  15. public void onPartitionsRevoked(Collection<TopicPartition> partitions) {

  16. System.out.println("starting partitions rebalance...");

  17. }


  18. @Override

  19. public void onPartitionsAssigned(Collection<TopicPartition> partitions) {

  20. consumer.seekToEnd(partitions);

  21. }

  22. });


  23. 以上代码与props.put("auto.offset.reset", "latest");等效。

4. 涉及到数据库的 Exactly Once 语义的实现思路

当处理 Kafka 中的数据涉及到数据库时,那么即使每处理一条数据提交一次偏移量,也可以造成数据重复处理或者丢失数据,看以下为伪代码:

  1. Map<TopicPartition, OffsetAndMetadata> currentOffsets = new HashMap<>();

  2. ......


  3. while (true) {

  4. ConsumerRecords<String, String> records = consumer.poll(100);

  5. for (ConsumerRecord<String, String> record : records) {


  6. currentOffsets.put(new TopicPartition(record.topic(), record.partition()),

  7. new OffsetAndMetadata(record.offset() + 1);


  8. // 处理数据

  9. processRecord(record);

  10. // 把数据存储到数据库中

  11. storeRecordInDB(record);


  12. // 提交偏移量

  13. consumer.commitAsync(currentOffsets);

  14. }

  15. }

假设把数据存储到数据库后,没有来得及提交偏移量程序就因某种原因挂掉了,那么程序再次启动后就会重复处理数据,数据库中会有重复的数据。

如果把存储到数据库和提交偏移量在一个原子操作里完成,就可以避免这样的问题,但数据存到数据库,偏移量保存到kafka是无法实现原子操作的,而如果把数据存储到数据库中,偏移量也存储到数据库中,这样就可以利用数据库的事务来把这两个操作设为一个原子操作,同时结合再均衡监听器就可以实现 Exactly Once 语义,以下为伪代码:

  1. consumer.subscribe(Collections<String> topics, new ConsumerRebalanceListener() {


  2. @Override

  3. public void onPartitionsRevoked(Collection<TopicPartition> partitions) {

  4. // 发生分区再均衡之前,提交事务

  5. commitDBTransaction();

  6. }


  7. @Override

  8. public void onPartitionsAssigned(Collection<TopicPartition> partitions) {

  9. // 再均衡之后,从数据库获得消费偏移量

  10. for(TopicPartition topicPartition : partitions) {

  11. consumer.seek(topicPartition, getOffsetFromDB(topicPartition));

  12. }

  13. }

  14. });


  15. /**

  16. * 消费之前调用一次 poll(),让消费者加入到消费组中,并获取分配的分区

  17. * 然后马上调用 seek() 方法定位分区的偏移量

  18. * seek() 设置消费偏移量,设置的偏移量是从数据库读出来的,说明本次设置的偏移量已经被处理过

  19. * 下一次调用 poll() 就会在本次设置的偏移量上加1,开始处理没有处理过的数据

  20. * 如果seek()发生错误,比如偏移量不存在,则会抛出异常

  21. */

  22. consumer.poll(0);

  23. for(TopicPartition topicPartition : consumer.assignment()) {

  24. consumer.seek(topicPartition, getOffsetFromDB(topicPartition));

  25. }


  26. while (true) {

  27. ConsumerRecords<String, String> records = consumer.poll(1000);

  28. for (ConsumerRecord<String, String> record : records) {

  29. // 处理数据

  30. processRecord(record);

  31. // 把数据存储到数据库中

  32. storeRecordInDB(record);

  33. // 把偏移量存储到数据库中

  34. storeOffsetInDB(record.topic(), record.partition(), record.offset());

  35. }

  36. // 以上3步为一个事务,提交事务,这里在每个批次末尾提交一次事务,是为了提高性能

  37. commitDBTransaction();

  38. }

把偏移量和记录保存到用一个外部系统来实现 Exactly Once 有很多方法,但核心思想都是:结合 ConsumerRebalanceListener 和 seek() 方法来确保能够及时保存偏移量,并保证消费者总是能够从正确的位置开始读取消息。

创作不易,给个关注和赞哟~

欢迎扫码关注
获取更多干货



文章转载自大数据哔哔机,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论