码迷,mamicode.com
首页 > Windows程序 > 详细

windows下jdk、hadoop、Scala、Spark的调试环境配置(jdk路径的空格问题, /tmp/hive on HDFS should be writable问题)

时间:2019-11-08 23:52:32      阅读:135      评论:0      收藏:0      [点我收藏+]

标签:The   scala   环境配置   bin   mic   执行   root   chm   class   

1、首先是jdk的路径问题

为了和以后出现的hadoop,spark出现 路径带有空格导致 调用失败的情况, 直接把 jdk的路径 剪切到 没有空格的目录下。

D:\>echo %JAVA_HOME%
C:\Java\jdk1.8.0_202

 

 

技术图片

技术图片

 

 技术图片

 

 到这里,在cmd下,能 看到 scala -version和 spark-shell 。

技术图片

 

 

2、spark出现The root scratch dir: /tmp/hive on HDFS should be writable

%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
%HADOOP_HOME%\bin\winutils.exe chmod 777 \tmp\hive
%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive

 

 

注意:如果程序是放在 D盘, 那么要在D盘执行以上命令。

技术图片

 

 

看到读写的权限都有了。

 

 

windows下jdk、hadoop、Scala、Spark的调试环境配置(jdk路径的空格问题, /tmp/hive on HDFS should be writable问题)

标签:The   scala   环境配置   bin   mic   执行   root   chm   class   

原文地址:https://www.cnblogs.com/wuyicode/p/11823657.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!