码迷,mamicode.com
首页 > 其他好文 > 详细

向spark集群提交消费kafka应用时kafka鉴权配置问题

时间:2018-06-28 20:22:39      阅读:461      评论:0      收藏:0      [点我收藏+]

标签:prope   park   不能   需要   通过   引号   stream   dep   security   

提交消费kafka应用里面包含sasl.jaas.config,通常需要配置文件。但是打成jar包后的应用,通过classload读不到jar包中配置文件。

需要初始化kafka时增加properties属性。


kafkaParams.put("sasl.jaas.config", "xxxx required\n"+
                " accessKey=\"xxxx\"\n"+
                " securityKey=\"xxxxx\";");

换行,冒号,引号都不能少


注意kafka的依赖为:

    <dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-clients</artifactId>
      <version>1.0.0</version>
     </dependency>


    同时要去掉spark-streaming-kafka中的kafka依赖


    <!-- 去掉kafka 0.10.0.1 的依赖-->
      <dependency>
          <groupId>org.apache.spark</groupId>
          <artifactId>spark-streaming-kafka-0-10_2.11</artifactId>
          <version>2.3.1</version>
          <exclusions>
          <exclusion>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka-clients</artifactId>
          </exclusion>
          </exclusions>
      </dependency>

向spark集群提交消费kafka应用时kafka鉴权配置问题

标签:prope   park   不能   需要   通过   引号   stream   dep   security   

原文地址:http://blog.51cto.com/zhengqidaxia/2133886

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!