报错的日志信息:
the consumer‘s subscription not exist
找到源码里报错的位置
org.apache.rocketmq.broker.processor.PullMessageProcessor#processRequest:
1 subscriptionData = consumerGroupInfo.findSubscriptionData(requestHeader.getTopic());
2 if (null == subscriptionData) {
3 log.warn("the consumer‘s subscription not exist, group: {}, topic:{}", requestHeader.getConsumerGroup(), requestHeader.getTopic());
1 response.setCode(ResponseCode.SUBSCRIPTION_NOT_EXIST);
2 response.setRemark("the consumer‘s subscription not exist" + FAQUrl.suggestTodo(FAQUrl.SAME_GROUP_DIFFERENT_TOPIC));
3 return response;
4 }
根据源码里报错的位置进行分析
此处源码是将该 Topic 的订阅信息找出来,然而这里却没找到,所以报了消费订阅不存在的错误。
朋友还跟我讲了他的消费集群中,每个消费者订阅了自己的 Topic,他的消费组中 有 c1 和 c2 消费者,c1 订阅了 topicA,而 c2 订阅了 topicB。
这时我已经知道什么原因了,我先说一下消费者的订阅信息在 broker 中是以 group 来分组的,数据结构如下
org.apache.rocketmq.broker.client.ConsumerManager:
1 private final ConcurrentMap<String/* Group */, ConsumerGroupInfo> consumerTable =
2 new ConcurrentHashMap<String, ConsumerGroupInfo>(1024);
这意味着集群中的每个消费者在向 broker 注册订阅信息的时候相互覆盖掉对方的订阅信息了,这也是为什么同一个消费组应该拥有完全一样的订阅关系的原因,而朋友在同一个消费组的每个消费者订阅关系都不一样,就出现了订阅信息相互覆盖的问题。
可是朋友这时又有疑惑了,他觉得每个消费者订阅自己的主题,貌似没问题啊,逻辑上也行的通,他不明白为什么 RocketMQ 不允许这样做,于是秉承着老司机的职业素养,下面我会从源码的角度深度分析 RocketMQ 消费订阅注册,消息拉取,消息队列负载与重新分布机制 ,让大家彻底弄清 RocketMQ 消费订阅机制
消费者订阅信息注册
消费者在启动时会向所有 broker 注册订阅信息,并启动心跳机制,定时更新订阅信息,每个消费者都有一个 MQClientInstance,消费者启动时会启动这个类,启动方法中会启动一些列定时任务,其中:
org.apache.rocketmq.client.impl.factory.MQClientInstance#startScheduledTask:
1 this.scheduledExecutorService.scheduleAtFixedRate(new Runnable() {
2 @Override
3 public void run() {
4 try {
5 MQClientInstance.this.cleanOfflineBroker();
6 MQClientInstance.this.sendHeartbeatToAllBrokerWithLock();
7 } catch (Exception e) {
8 log.error("ScheduledTask sendHeartbeatToAllBroker exception", e);
9 }
10 }
11 }, 1000, this.clientConfig.getHeartbeatBrokerInterval(), TimeUnit.MILLISECONDS);
上面是向集群内所有 broker 发送订阅心跳信息的定时任务,源码继续跟进去,发现会给集群中的每个 broker 都发送自己的 HeartbeatData,HeartbeatData 即是每个客户端的心跳数据,它包含了如下数据:
1 // 客户端ID
2 private String clientID;
3 // 生产者信息
4 private Set<ProducerData> producerDataSet = new HashSet<ProducerData>();
5 // 消费者信息
6 private Set<ConsumerData> consumerDataSet = new HashSet<ConsumerData>();
其中消费者信息包含了客户端订阅的主题信息。
我们继续看看 broker 如何处理 HeartbeatData 数据,客户端发送 HeartbeatData 时的请求类型为 HEART_BEAT,我们直接找到 broker 处理 HEART_BEAT 请求类型的逻辑:
org.apache.rocketmq.broker.processor.ClientManageProcessor#heartBeat:
1 public RemotingCommand heartBeat(ChannelHandlerContext ctx, RemotingCommand request) {
2 RemotingCommand response = RemotingCommand.createResponseCommand(null);
3 // 解码,获取 HeartbeatData
4 HeartbeatData heartbeatData = HeartbeatData.decode(request.getBody(), HeartbeatData.class);
5 ClientChannelInfo clientChannelInfo = new ClientChannelInfo(
6 ctx.channel(),
7 heartbeatData.getClientID(),
8 request.getLanguage(),
9 request.getVersion()
10 );
11
12 // 循环注册消费者订阅信息
13 for (ConsumerData data : heartbeatData.getConsumerDataSet()) {
14 // 按消费组获取订阅配置信息
15 SubscriptionGroupConfig subscriptionGroupConfig =
16 this.brokerController.getSubscriptionGroupManager().findSubscriptionGroupConfig(
17 data.getGroupName());
18 boolean isNotifyConsumerIdsChangedEnable = true;
19 if (null != subscriptionGroupConfig) {
20 isNotifyConsumerIdsChangedEnable = subscriptionGroupConfig.isNotifyConsumerIdsChangedEnable();
21 int topicSysFlag = 0;
22 if (data.isUnitMode()) {
23 topicSysFlag = TopicSysFlag.buildSysFlag(false, true);
24 }
25 String newTopic = MixAll.getRetryTopic(data.getGroupName());
26 this.brokerController.getTopicConfigManager().createTopicInSendMessageBackMethod(
27 newTopic,
28 subscriptionGroupConfig.getRetryQueueNums(),
29 PermName.PERM_WRITE | PermName.PERM_READ, topicSysFlag);
30 }
31
32 // 注册消费者订阅信息
33 boolean changed = this.brokerController.getConsumerManager().registerConsumer(
34 data.getGroupName(),
35 clientChannelInfo,
36 data.getConsumeType(),
37 data.getMessageModel(),
38 data.getConsumeFromWhere(),
39 data.getSubscriptionDataSet(),
40 isNotifyConsumerIdsChangedEnable
41 );
42 // ...
43 response.setCode(ResponseCode.SUCCESS);
44 response.setRemark(null);
45 return response;
46 }
在这里我们可以看到,broker 收到 HEART_BEAT 请求后,将请求数据解压获取 HeartbeatData,根据 HeartbeatData 里面的消费订阅信息,循环进行注册:
org.apache.rocketmq.broker.client.ConsumerManager#registerConsumer:
1 public boolean registerConsumer(final String group, final ClientChannelInfo clientChannelInfo,
2 ConsumeType consumeType, MessageModel messageModel, ConsumeFromWhere consumeFromWhere,
3 final Set<SubscriptionData> subList, boolean isNotifyConsumerIdsChangedEnable) {
4
5 // 获取消费组内的消费者信息
6 ConsumerGroupInfo consumerGroupInfo = this.consumerTable.get(group);
7 // 如果消费组的消费者信息为空,则新建一个
8 if (null == consumerGroupInfo) {
9 ConsumerGroupInfo tmp = new ConsumerGroupInfo(group, consumeType, messageModel, consumeFromWhere);
10 ConsumerGroupInfo prev = this.consumerTable.putIfAbsent(group, tmp);
11 consumerGroupInfo = prev != null ? prev : tmp;
12 }
13
14 boolean r1 =
15 consumerGroupInfo.updateChannel(clientChannelInfo, consumeType, messageModel,
16 consumeFromWhere);
17 // 更新订阅信息,订阅信息是按照消费组存放的,因此这步骤就会导致同一个消费组内的各个消费者客户端的订阅信息相互被覆盖
18 boolean r2 = consumerGroupInfo.updateSubscription(subList);
19
20 if (r1 || r2) {
21 if (isNotifyConsumerIdsChangedEnable) {
22 this.consumerIdsChangeListener.handle(ConsumerGroupEvent.CHANGE, group, consumerGroupInfo.getAllChannel());
23 }
24 }
25
26 this.consumerIdsChangeListener.handle(ConsumerGroupEvent.REGISTER, group, subList);
27
28 return r1 || r2;
29 }
这步骤是 broker 更新消费者订阅信息的核心方法,如果消费组的消费者信息 ConsumerGroupInfo 为空,则新建一个,从名字可知道,订阅信息是按照消费组进行存放的,因此在更新订阅信息时,订阅信息是按照消费组存放的,这步骤就会导致同一个消费组内的各个消费者客户端的订阅信息相互被覆盖。
消息拉取
在 MQClientInstance 启动时,会启动一条线程来处理消息拉取任务:
org.apache.rocketmq.client.impl.factory.MQClientInstance#start:
1 // Start pull service
2 this.pullMessageService.start();
pullMessageService 继承了 ServiceThread,而 ServiceThread 实现了 Runnable 接口,它的 run 方法实现如下:
org.apache.rocketmq.client.impl.consumer.PullMessageService#run:
1 @Override
2 public void run() {
3 while (!this.isStopped()) {
4 try {
5 // 从 pullRequestQueue 中获取拉取消息请求对象
6 PullRequest pullRequest = this.pullRequestQueue.take();
7 // 执行消息拉取
8 this.pullMessage(pullRequest);
9 } catch (InterruptedException ignored) {
10 } catch (Exception e) {
11 log.error("Pull Message Service Run Method exception", e);
12 }
13 }
14 }
消费端拿到 PullRequest 对象进行拉取消息,pullRequestQueue 是一个阻塞队列,如果 pullRequest 数据为空,执行 take() 方法会一直阻塞,直到有新的 pullRequest 拉取任务进来,这里是一个很关键的步骤,你可能会想,pullRequest 什么时候被创建然后放入 pullRequestQueue?pullRequest 它是在 RebalanceImpl 中创建,它是 RocketMQ 消息队列负载与重新分布机制的实现。
消息队列负载与重新分布
从上面消息拉取源码分析可知,pullMessageService 启动时由于 pullRequestQueue 中没有 pullRequest 对象,会一直阻塞,而在 MQClientInstance 启动时,同样会启动一条线程来处理消息队列负载与重新分布任务:
org.apache.rocketmq.client.impl.factory.MQClientInstance#start:
1 // Start rebalance service
2 this.rebalanceService.start();
rebalanceService 同样继承了 ServiceThread,它的 run 方法如下:
1 @Override
2 public void run() {
3 while (!this.isStopped()) {
4 this.waitForRunning(waitInterval);
5 this.mqClientFactory.doRebalance();
6 }
7 }
继续跟进去:
org.apache.rocketmq.client.impl.consumer.RebalanceImpl#doRebalance:
1 public void doRebalance(final boolean isOrder) {
2 // 获取消费者所有订阅信息
3 Map<String, SubscriptionData> subTable = this.getSubscriptionInner();
4 if (subTable != null) {
5 for (final Map.Entry<String, SubscriptionData> entry : subTable.entrySet()) {
6 final String topic = entry.getKey();
7 try {
8 // 消息队列负载与重新分布
9 this.rebalanceByTopic(topic, isOrder);
10 } catch (Throwable e) {
11 if (!topic.startsWith(MixAll.RETRY_GROUP_TOPIC_PREFIX)) {
12 log.warn("rebalanceByTopic Exception", e);
13 }
14 }
15 }
16 }
17 this.truncateMessageQueueNotMyTopic();
18 }
这里主要是获取客户端订阅的主题,并根据主题进行消息队列负载与重新分布,subTable 存储了消费者的订阅信息,消费者进行消息订阅时会填充到里面,我们接着往下:
org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:
1 这里主要是获取客户端订阅的主题,并根据主题进行消息队列负载与重新分布,subTable 存储了消费者的订阅信息,消费者进行消息订阅时会填充到里面,我们接着往下:
2
3 org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:
rebalanceByTopic 方法是实现 Consumer 端负载均衡的核心,我们这里以集群模式的消息队列负载与重新分布,首先从 topicSubscribeInfoTable 中获取订阅主题的队列信息,接着随机从集群中的一个 broker 中获取消费组内某个 topic 的订阅客户端 ID 列表,这里需要注意的是,为什么从集群内任意一个 broker 就可以获取订阅客户端信息呢?前面的分析也说了,消费者客户端启动时会启动一个线程,向所有 broker 发送心跳包。
org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:
1 // 如果 主题订阅信息mqSet和主题订阅客户端不为空,就执行消息队列负载与重新分布
2 if (mqSet != null && cidAll != null) {
3 List<MessageQueue> mqAll = new ArrayList<MessageQueue>();
4 mqAll.addAll(mqSet);
5
6 // 排序,确保每个消息队列只分配一个消费者
7 Collections.sort(mqAll);
8 Collections.sort(cidAll);
9
10 // 消息队列分配算法
11 AllocateMessageQueueStrategy strategy = this.allocateMessageQueueStrategy;
12
13 // 执行算法,并得到队列重新分配后的结果对象allocateResult
14 List<MessageQueue> allocateResult = null;
15 try {
16 allocateResult = strategy.allocate(
17 this.consumerGroup,
18 this.mQClientFactory.getClientId(),
19 mqAll,
20 cidAll);
21 } catch (Throwable e) {
22 log.error("AllocateMessageQueueStrategy.allocate Exception. allocateMessageQueueStrategyName={}", strategy.getName(),
23 e);
24 return;
25 }
26 // ...
27 }
以上是消息负载均衡的核心逻辑,RocketMQ 本身提供了 5 种负载算法,默认使用 AllocateMessageQueueAveragely 平均分配算法,它分配算法特点如下:
假设有消费组 g1,有消费者 c1 和 c2,c1 订阅了 topicA,c2 订阅了 topicB,集群内有 broker1 和broker2,假设 topicA 有 8 个消息队列,broker_a(q0/q1/q2/q3) 和 broker_b(q0/q1/q2/q3),前面我们知道 findConsumerIdList 方法会获取消费组内所有消费者客户端 ID,topicA 经过平均分配算法进行分配之后的消费情况如下:
c1:broker_a(q0/q1/q2/q3)
c2:broker_b(q0/q1/q2/q3)
问题就出现在这里,c2 根本没有订阅 topicA,但根据分配算法,却要加上 c2 进行分配,这样就会导致这种情况有一半的消息被分配到 c2 进行消费,被分配到 c2 的消息队列会延迟十几秒甚至更久才会被消费,topicB 同理。
下面我用图表示 topicA 和 topicB 经过 rebalance 之后的消费情况:
至于为什么会报 the consumer‘s subscription not exist,我们继续往下撸:
org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:
1 if (mqSet != null && cidAll != null) {
2 // ...
3 Set<MessageQueue> allocateResultSet = new HashSet<MessageQueue>();
4 if (allocateResult != null) {
5 allocateResultSet.addAll(allocateResult);
6 }
7 // 用户重新分配后的结果allocateResult来更新当前消费者负载的消息队列缓存表processQueueTable,并生成 pullRequestList 放入 pullRequestQueue 阻塞队列中
8 boolean changed = this.updateProcessQueueTableInRebalance(topic, allocateResultSet, isOrder);
9 if (changed) {
10 log.info(
11 "rebalanced result changed. allocateMessageQueueStrategyName={}, group={}, topic={}, clientId={}, mqAllSize={}, cidAllSize={}, rebalanceResultSize={}, rebalanceResultSet={}",
12 strategy.getName(), consumerGroup, topic, this.mQClientFactory.getClientId(), mqSet.size(), cidAll.size(),
13 allocateResultSet.size(), allocateResultSet);
14 this.messageQueueChanged(topic, mqSet, allocateResultSet);
15 }
16 }
以上代码逻辑主要是拿 mqSet 和 cidAll 进行消息队列负载与重新分布,得到结果 allocateResult,它是一个 MessageQueue 列表,接着用 allocateResult 更新消费者负载的消息队列缓存表 processQueueTable,生成 pullRequestList 放入 pullRequestQueue 阻塞队列中:
org.apache.rocketmq.client.impl.consumer.RebalanceImpl#updateProcessQueueTableInRebalance:
1 List<PullRequest> pullRequestList = new ArrayList<PullRequest>();
2 // 循环执行,将mqSet订阅数据封装成PullRequest对象,并添加到pullRequestList中
3 for (MessageQueue mq : mqSet) {
4 // 如果缓存列表不存在该订阅信息,说明这次消息队列重新分配后新增加的消息队列
5 if (!this.processQueueTable.containsKey(mq)) {
6 if (isOrder && !this.lock(mq)) {
7 log.warn("doRebalance, {}, add a new mq failed, {}, because lock failed", consumerGroup, mq);
8 continue;
9 }
10 this.removeDirtyOffset(mq);
11 ProcessQueue pq = new ProcessQueue();
12 long nextOffset = this.computePullFromWhere(mq);
13 if (nextOffset >= 0) {
14 ProcessQueue pre = this.processQueueTable.putIfAbsent(mq, pq);
15 if (pre != null) {
16 log.info("doRebalance, {}, mq already exists, {}", consumerGroup, mq);
17 } else {
18 log.info("doRebalance, {}, add a new mq, {}", consumerGroup, mq);
19 PullRequest pullRequest = new PullRequest();
20 pullRequest.setConsumerGroup(consumerGroup);
21 pullRequest.setNextOffset(nextOffset);
22 pullRequest.setMessageQueue(mq);
23 pullRequest.setProcessQueue(pq);
24 pullRequestList.add(pullRequest);
25 changed = true;
26 }
27 } else {
28 log.warn("doRebalance, {}, add new mq failed, {}", consumerGroup, mq);
29 }
30 }
31 }
32 // 将pullRequestList添加到PullMessageService中的pullRequestQueue阻塞队列中,以唤醒PullMessageService线程执行消息拉取
33 this.dispatchPullRequest(pullRequestList);
前面我们讲到消息拉取是从 pullRequestQueue 阻塞队列中拿 pullRequest 执行拉取的,以上方法就是创建 pullRequest 的地方。
源码分析到这里,就可以弄清楚为什么会报 the consumer‘s subscription not exist 这个错误了:
假设有消费者组 g1,g1下有消费者 c1 和消费者 c2,c1 订阅了 topicA,c2 订阅了 topicB,此时c2 先启动,将 g1 的订阅信息更新为 topicB,c1 随后启动,将 g1 的订阅信息覆盖为 topicA,c1 的 Rebalance 负载将 topicA 的 pullRequest 添加到 pullRequestQueue 中,而恰好此时 c2 心跳包又将 g1 的订阅信息更新为 topicB,那么此时 c1 的 PullMessageService 线程拿到 pullRequestQueue 中 topicA 的 pullRequest 进行消息拉取,然而在 broker 端找不到消费者组 g1 下 topicA 的订阅信息(因为此时恰好被 c2 心跳包给覆盖了),就会报消费者订阅信息不存在的错误了。