码迷,mamicode.com
首页 > 其他好文 > 详细

今天面试总结,关于kafka 保证消息不丢失问题

时间:2018-07-16 23:07:02      阅读:301      评论:0      收藏:0      [点我收藏+]

标签:producer   问题   文件   原因   过程   面试   client   异步发送   数据   

kafka 保证消息不丢失。原因如下有:

1)生产者如果异步发送,会造成消息丢失,发送的过程中kafka会先把消息缓存起来。然后批量发送。 若批量发送之前client宕机会造成消息丢失。生产者不丢失消息需要同步发送

2)kafka服务器默认异步刷盘,先刷到系统页缓存,然后再刷新到日志文件。页缓存的数据可能会丢失。解决可以同步的方式刷盘,但是这样效率很低,比rabbitmq低。

 对于我说的第二点有点问题。在配置ack=all , lsr=2 是 ,可以保证页缓存数据不丢失。

结论:如果想要确保消息不丢失,需要kafka producer配置成同步方式。选用rabbitmq。

 

今天面试总结,关于kafka 保证消息不丢失问题

标签:producer   问题   文件   原因   过程   面试   client   异步发送   数据   

原文地址:https://www.cnblogs.com/hansc-blog/p/9320713.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!