码迷,mamicode.com
首页 > 编程语言 > 详细

spark 与 Hadoop 融合后 Neither spark.yarn.jars nor spark.yarn.archive is set

时间:2017-06-02 14:57:32      阅读:1611      评论:0      收藏:0      [点我收藏+]

标签:sdn   问题   nbsp   hdf   创建   参考文献   img   and   知识库   

参考文献:

http://blog.csdn.net/lxhandlbb/article/details/54410644

 

 

每次提交Spark任务到yarn的时候,总会出现uploading resource(打包spark jars并上传)到hdfs上。

恶劣情况下,会在这里卡住很久。

技术分享

 

 

 

 

解决:
在hdfs上创建目录:
hdfs dfs -mkdir   /spark_jars

上传spark的jars(spark1.6 只需要上传spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar)


hdfs dfs -put /opt/spark/jars/*    /spark_jars


在spark的conf的spark-default.conf


添加配置 :

spark.yarn.jars=hdfs://master:9000/spark_jars/*
#spark.yarn.jars=/opt/spark-2.1.1-bin-hadoop2.7/jars/*

 

技术分享

 


即可解决。不会出现这个问题。

 

spark 与 Hadoop 融合后 Neither spark.yarn.jars nor spark.yarn.archive is set

标签:sdn   问题   nbsp   hdf   创建   参考文献   img   and   知识库   

原文地址:http://www.cnblogs.com/devilmaycry812839668/p/6932960.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!