码迷,mamicode.com
首页 > 其他好文 > 详细

kafka安装及配置

时间:2020-01-17 19:16:35      阅读:301      评论:0      收藏:0      [点我收藏+]

标签:保护   ipv4   plain   标识   cgi   localhost   根据   恢复   apache   

一、下载安装

1、下载地址

https://www.apache.org/dyn/closer.cgi?path=/kafka/2.4.0/kafka_2.13-2.4.0.tgz

下载命令:wget http://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.4.0/kafka_2.13-2.4.0.tgz

2、解压

解压命令:tar –zxvf  kafka_2.13-2.4.0.tgz

移动: cp -R kafka_2.13-2.4.0 /zjl/program/

创建软链接: ln -s kafka_2.13-2.4.0/  /zjl/program/kafka

解压后即可使用

配置zookeeper集群参见:https://www.cnblogs.com/happydreamzjl/articles/12186171.html

二、配置kafka

1、配置server.properties

位置:  /kafka/config

默认配置 advertised.listeners=PLAINTEXT://your.host.name:9092

修改为 advertised.listeners=PLAINTEXT://ip:9092

例:advertised.listeners=PLAINTEXT://192.168.244.128:9092

  1. ip为服务器ip
  2. hostname和端口是用来建议给生产者和消费者使用的,如果没有设置,将会使用listeners的配置,如果listeners也没有配置,将使用java.net.InetAddress.getCanonicalHostName()来获取这个hostname和port,对于ipv4,基本就是localhost了。
  3. "PLAINTEXT"表示协议,可选的值有PLAINTEXT和SSL,hostname可以指定IP地址,也可以用"0.0.0.0"表示对所有的网络接口有效,如果hostname为空表示只对默认的网络接口有效。也就是说如果你没有配置advertised.listeners,就使用listeners的配置通告给消息的生产者和消费者,这个过程是在生产者和消费者获取源数据(metadata)。

主要注意三个配置:

  1. broker.id标识本机
  2. log.dirs是kafka接收消息存放路径
  3. zookeeper.connect指定连接的zookeeper集群地址

2、kafka集群计划

三台机器:192.168.244.128    192.168.244.130   192.168.244.131

修改server.properties文件,只修改三项,其他根据需要配置

192.168.244.128

broker.id=1
log.dirs=/zjl/program/kafka/datalogs/kafka-logs
zookeeper.connect=192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181

192.168.244.130

broker.id=2
log.dirs=/zjl/program/kafka/datalogs/kafka-logs
zookeeper.connect=192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181

192.168.244.131

broker.id=3
log.dirs=/zjl/program/kafka/datalogs/kafka-logs
zookeeper.connect=192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181

3、启动

三个节点分别执行:nohup ./kafka-server-start.sh -daemon ../config/server.properties &

启动时若报错java.net.UnknownHostException  XXX

命令查看:hostname  打印出本机hostname 我的机器是  zjlLinux1

修改文件 :vim /etc/hosts

添加内容  192.168.244.128  zjlLinux1  #ip是本机IP 后边是hostname

4、较验启动是否成功

  1. jps
  2. ps –ef|grep kafka

5、kafka-manager

下载地址:https://github.com/yahoo/kafka-manager/releases

编译

tar -zxvf 1.3.3.17.tar.gz

cd kafka-manager-1.3.3.17/

./sbt clean dist

配置

在解压后的conf目录中打开 application.conf文件,修改其中的配置信息,最主要的内容为:kafka-manager.zkhosts="192.168.1.22:2181,192.168.1.23:2181,192.168.1.24:2181"  配置为Kafka的 zookeeper 服务器。你还可以通过环境变量ZK_HOSTS配置这个参数值。

启动

在解压的目录中,使用下面的命令启动Kafka-manager :    bin/kafka-manager

默认情况下端口为9000,你还可以通过下面的命令指定配置文件和端口: bin/kafka-manager -Dconfig.file=/path/to/application.conf -Dhttp.port=9000

启动后,从浏览器打开:http://[服务器IP]:9000/  就可以看到配置页面了

三、kafka基本命令操作

1、创建TOPIC

./kafka-topics.sh --create --zookeeper 192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181  --replication-factor 3 --partitions 6 --topic kfk_test

2、列出创建的topic

./kafka-topics.sh --list --zookeeper 192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181 

3、生成数据

注意这里的端口号是kafka的端口  9092

./kafka-console-producer.sh -broker-list 192.168.244.128:9092,192.168.244.130:9092,192.168.244.131:9092   --topic kfk_test

技术图片

4、消费生产数据

kafka 0.9版本之前用zookeeper
./kafka-console-consumer.sh --zookeeper 192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181  --from-beginning --topic kfk_test
 
kafka 0.9版本之后不推荐zookeeper方式,仍然支持,但逐渐会被取消,推荐bootstrap-server方式

注意这里的端口号是kafka的端口  9092
./kafka-console-consumer.sh --bootstrap-server  192.168.244.128:9092,192.168.244.130:9092,192.168.244.131:9092  --from-beginning --topic kfk_test

技术图片

5、查看指定topic信息

./kafka-topics.sh --describe --zookeeper 192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181 --topic kfk_test

6、删除kafka中的topic

./kafka-topics.sh --delete --zookeeper 192.168.244.128:2181,192.168.244.130:2181,192.168.244.131:2181 --topic kfk_test

删除zookeeper中的topic信息

  1. rmr /brokers/topics/kfk_test

  2. rmr /config/topics/kfk_test

  3. rmr /admin/delete_topics/kfk_test

  4. rmr /consumers/kfk_test-group

 删除topic数据相关的目录
rm -rf /var/local/kafka/data/kfk_test*

四、配置文件详解

  1. broker.id = 0 每一个broker在集群中的唯一表示,要求是正数。当该服务器的IP地址发生改变时,broker.id没有变化,则不会影响consumers的消息情况
  2. log.dirs=/data/kafka-logs   kafka数据的存放地址,多个地址的话用逗号分割 /data/kafka-logs-1,/data/kafka-logs-2
  3. port =9092   broker server服务端口
  4. message.max.bytes =6525000  表示消息体的最大大小,单位是字节
  5. num.network.threads =4  broker处理消息的最大线程数,一般情况下不需要去修改
  6. num.io.threads =8  broker处理磁盘IO的线程数,数值应该大于你的硬盘数
  7. background.threads =4  一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改
  8. queued.max.requests =500  等待IO线程处理的请求队列最大数,若是等待IO的请求超过这个数值,那么会停止接受外部消息,应该是一种自我保护机制。
  9. host.name  broker的主机地址,若是设置了,那么会绑定到这个地址上,若是没有,会绑定到所有的接口上,并将其中之一发送到ZK,一般不设置
  10. socket.send.buffer.bytes=100*1024  socket的发送缓冲区,socket的调优参数SO_SNDBUFF
  11. socket.receive.buffer.bytes =100*1024  socket的接受缓冲区,socket的调优参数SO_RCVBUFF
  12. socket.request.max.bytes =100*1024*1024  socket请求的最大数值,防止serverOOM,message.max.bytes必然要小于socket.request.max.bytes,会被topic创建时的指定参数覆盖
  13. log.segment.bytes =1024*1024*1024  topic的分区是以一堆segment文件存储的,这个控制每个segment的大小,会被topic创建时的指定参数覆盖
  14. log.roll.hours =24*7  这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment会被 topic创建时的指定参数覆盖
  15. log.cleanup.policy = delete  日志清理策略选择有:delete和compact主要针对过期数据的处理,或是日志文件达到限制的额度,会被 topic创建时的指定参数覆盖
  16. log.retention.minutes=60*24 # 一天后删除  数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据; log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖
  17. log.retention.bytes=-1   topic每个分区的最大文件大小,一个topic的大小限制 = 分区数*log.retention.bytes= -1没有大小限制;log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖
  18. log.retention.check.interval.ms=5minutes  文件大小检查的周期时间,是否处罚 log.cleanup.policy中设置的策略
  19. log.cleaner.enable=false  是否开启日志压缩
  20. log.cleaner.threads = 2  日志压缩运行的线程数
  21. log.cleaner.io.max.bytes.per.second=None   日志压缩时候处理的最大大小
  22. log.cleaner.dedupe.buffer.size=500*1024*1024  日志压缩去重时候的缓存空间,在空间允许的情况下,越大越好
  23. log.cleaner.io.buffer.size=512*1024  日志清理时候用到的IO块大小一般不需要修改
  24. log.cleaner.io.buffer.load.factor =0.9  日志清理中hash表的扩大因子一般不需要修改
  25. log.cleaner.backoff.ms =15000  检查是否处罚日志清理的间隔
  26. log.cleaner.min.cleanable.ratio=0.5  日志清理的频率控制,越大意味着更高效的清理,同时会存在一些空间上的浪费,会被topic创建时的指定参数覆盖
  27. log.cleaner.delete.retention.ms =1day   对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据。会被topic创建时的指定参数覆盖
  28. log.index.size.max.bytes =10*1024*1024  对于segment日志的索引文件大小限制,会被topic创建时的指定参数覆盖
  29. log.index.interval.bytes =4096  当执行一个fetch操作后,需要一定的空间来扫描最近的offset大小,设置越大,代表扫描速度越快,但是也更好内存,一般情况下不需要搭理这个参数
  30. log.flush.interval.messages=None  log文件”sync”到磁盘之前累积的消息条数,因为磁盘IO操作是一个慢操作,但又是一个”数据可靠性"的必要手段,所以此参数的设置,需要在"数据可靠性"与"性能"之间做必要的权衡.如果此值过大,将会导致每次"fsync"的时间较长(IO阻塞),如果此值过小,将会导致"fsync"的次数较多,这也意味着整体的client请求有一定的延迟.物理server故障,将会导致没有fsync的消息丢失.
  31. log.flush.scheduler.interval.ms =3000  检查是否需要固化到硬盘的时间间隔
  32. log.flush.interval.ms = None  仅仅通过interval来控制消息的磁盘写入时机,是不足的.此参数用于控制"fsync"的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔达到阀值,也将触发.
  33. log.delete.delay.ms =60000  文件在索引中清除后保留的时间一般不需要去修改
  34. log.flush.offset.checkpoint.interval.ms =60000  控制上次固化硬盘的时间点,以便于数据恢复一般不需要去修改
  35. auto.create.topics.enable =true 是否允许自动创建topic,若是false,就需要通过命令创建topic
  36. default.replication.factor =1  创建replica副本因子,即设置该partition有几个副本。
  37. num.partitions =1  每个topic的分区个数,若是在topic创建时候没有指定的话会被topic创建时的指定参数覆盖

 

以下是kafka中Leader,replicas配置参数

  1. controller.socket.timeout.ms =30000  partition leader与replicas之间通讯时,socket的超时时间
  2. controller.message.queue.size=10  partition leader与replicas数据同步时,消息的队列尺寸
  3. replica.lag.time.max.ms =10000  replicas响应partition leader的最长等待时间,若是超过这个时间,就将replicas列入ISR(in-sync replicas),并认为它是死的,不会再加入管理中
  4. replica.lag.max.messages =4000  如果follower落后与leader太多,将会认为此follower[或者说partition relicas]已经失效(##通常,在follower与leader通讯时,因为网络延迟或者链接断开,总会导致replicas中消息同步滞后,如果消息之后太多,leader将认为此follower网络延迟较大或者消息吞吐能力有限,将会把此replicas迁移到其他follower中。在broker数量较少,或者网络不足的环境中,建议提高此值.)
  5. replica.socket.timeout.ms=30*1000  follower与leader之间的socket超时时间
  6. replica.socket.receive.buffer.bytes=64*1024  leader复制时候的socket缓存大小
  7. replica.fetch.max.bytes =1024*1024  replicas每次获取数据的最大大小
  8. replica.fetch.wait.max.ms =500  replicas同leader之间通信的最大等待时间,失败了会重试
  9. replica.fetch.min.bytes =1  fetch的最小数据尺寸,如果leader中尚未同步的数据不足此值,将会阻塞,直到满足条件
  10. num.replica.fetchers=1  leader进行复制的线程数,增大这个数值会增加follower的IO
  11. replica.high.watermark.checkpoint.interval.ms =5000  每个replica检查是否将最高水位进行固化的频率
  12. controlled.shutdown.enable =false  是否允许控制器关闭broker ,若是设置为true,会关闭所有在这个broker上的leader,并转移到其他broker
  13. controlled.shutdown.max.retries =3  控制器关闭的尝试次数
  14. controlled.shutdown.retry.backoff.ms =5000  每次关闭尝试的时间间隔
  15. leader.imbalance.per.broker.percentage =10  leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡
  16. leader.imbalance.check.interval.seconds =300  检查leader是否不平衡的时间间隔
  17. offset.metadata.max.bytes   客户端保留offset信息的最大空间大小

 

kafka中zookeeper参数配置

  1. zookeeper.connect = localhost:2181  zookeeper集群的地址,可以是多个,多个之间用逗号分割 hostname1:port1,hostname2:port2,hostname3:port3
  2. zookeeper.session.timeout.ms=6000  ZooKeeper的最大超时时间,就是心跳的间隔,若是没有反映,那么认为已经死了,不易过大
  3. zookeeper.connection.timeout.ms =6000  ZooKeeper的连接超时时间
  4. zookeeper.sync.time.ms =2000  zookeeper的follower同leader的同步时间

整理自:
https://www.cnblogs.com/toutou/p/linux_install_kafka.html

https://baijiahao.baidu.com/s?id=1598139489983645370&wfr=spider&for=pc

https://blog.csdn.net/gangsijay888/article/details/94630763

kafka安装及配置

标签:保护   ipv4   plain   标识   cgi   localhost   根据   恢复   apache   

原文地址:https://www.cnblogs.com/happydreamzjl/p/12206997.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!