码迷,mamicode.com
首页 > 数据库 > 详细

spark启动后出现“JAVA_HOME not set” 异常和"org.apache.hadoop.security.AccessControlException"异常

时间:2019-05-01 13:44:43      阅读:175      评论:0      收藏:0      [点我收藏+]

标签:cep   org   bin   work   文件中   sbin   方案   data   配置   

 

/home/bigdata/hadoop/spark-2.1.1-bin-hadoop2.7/sbin/start-all.sh

启动后执行jps命令,主节点上有Master进程,其他子节点上有Work进行,登录Spark管理界面查看集群状态(主节点):http://master01:8080/

 

到此为止,Spark集群安装完毕.

1.注意如果遇到 “JAVA_HOME not set” 异常可以在sbin目录下的spark-config.sh 文件中加入如下配置:

export JAVA_HOME=XXXX

 

2.如果遇到Hadoop HDFS的写入权限问题:

org.apache.hadoop.security.AccessControlException

解决方案: hdfs-site.xml中添加如下配置,关权限验证

  <property>
        <name>dfs.permissions</name>
        <value>false</value>
  </property>  

spark启动后出现“JAVA_HOME not set” 异常和"org.apache.hadoop.security.AccessControlException"异常

标签:cep   org   bin   work   文件中   sbin   方案   data   配置   

原文地址:https://www.cnblogs.com/alexzhang92/p/10799478.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!