标签:
hadoop2.6.4
jdk1.8
spark2.0.1
方案1:
在spark的conf目录下,修改spark-env.sh文件加入LD_LIBRARY_PATH环境变量,值为hadoop的native库的路径
方案2:
在 /etc/profile 设置一下 export LD_LIBRARY_PATH=/usr/local/hadoop/lib/native
spark 启动时候报 Unable to load native-hadoop library for your platform 警告
标签:
原文地址:http://www.cnblogs.com/zhaofeng555/p/5980430.html