码迷,mamicode.com
首页 > 其他好文 > 详细

Kafka的可靠性问题

时间:2016-03-02 22:00:55      阅读:215      评论:0      收藏:0      [点我收藏+]

标签:

a. Producer到broker

    把request.required.acks设为1,丢会重发,丢的概率很小

b. Broker

    b.1 对于broker,落盘的数据,除非磁盘坏了,不会丢的

    b.2 对于内存中没有flush的数据,broker重启会丢 
        可以通过log.flush.interval.messages和log.flush.interval.ms来配置flush间隔,interval大丢的数据多些,小会影响性能 
        但在0.8版本,可以通过replica机制保证数据不丢,代价就是需要更多资源,尤其是磁盘资源,kafka当前支持GZip和Snappy压缩,来缓解这个问题 
        是否使用replica取决于在可靠性和资源代价之间的balance

Kafka的可靠性问题

标签:

原文地址:http://www.cnblogs.com/qiumingcheng/p/5236291.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!