标签:支持 设置 现象 one strong color 必须 its nbsp
1 subscribe: 自动安排分区, 通过group自动重新的负载均衡;
因为本地存了offset,在进程没重启之前,应该是不会消费重复数据,但是为什么会导致有重复数据呢?猜测是因为,每隔一段时间有
consumer加进来,导致rebalance, offset混乱导致?(仅仅猜测)
总结: 通过以上test cases发现, 只要是auto commit = false, 并且在消费过程中,因为consumer个数的变化,就会导致有一些数据重复消费。这是因为本地保存了offset,但是没有提交到server,rebalance会导致重复消费。
假设进程A正在消费分区1的信息,并提交了偏移量,之后又消费了10条数据,还没来得及提交偏移量的时候,reblance机制让进程B来继续消费分区1的信息,
此时进程B会从上次进程A提交偏移量的地方开始消费,因此这10条数据就是重复消费的。
当reblance比较频繁的时候,就会造成大量数据的重复。
因为kafka的offset下标的记录实际会有两份,服务端会自己记录一份,本地的消费者客户端也会记录一份,提交的offset会告诉服务端已经消费到这了,
但是本地的还没有提交的(应该是保存在进程中)并不会因此而改变offset进行再次消费。
2 assign:
手动指定消费的分区(用户指定分区);不支持group的自动负载均衡(因为分区已经指定了,就不会在consumer之间负载均衡了);
assign不会叠加,后一个会覆盖前一个(调用assign两次,后一个覆盖前一个);
多个同样配置的consumer同时消费同一个分区:
auto commit 对assign不起作用,实验一下consumer.commitSync()函数:
auto.offset.reset值含义解释:
offset commit是在Consumer端进行的操作,将下一次消费的位置(本次poll/准确的说是fetch?的最大record的后一位)commit到服务器。 有两种commit方式:自动提交与手动提交。 设置参数 props.put("enable.auto.commit", "true");开启自动提交,这样在执行poll命令后会立即将下一个offset提交至服务器。 另外,也可以通过seek函数手动控制Consumer的position(即设置poll时的起始offset),这样就可以跳过一些数据或者获取一些历史数据:(注意使用seek设置指定partition的offset时该Consumer必须要先assign订阅了该partition。)
标签:支持 设置 现象 one strong color 必须 its nbsp
原文地址:https://www.cnblogs.com/liufei1983/p/10099804.html