码迷,mamicode.com
首页 > 其他好文 > 详细

Spark- Spark Yarn模式下跑yarn-client无法初始化SparkConext,Over usage of virtual memory

时间:2017-09-27 19:02:43      阅读:163      评论:0      收藏:0      [点我收藏+]

标签:ima   mem   conf   container   dem   image   内存   错误   说明   

在spark yarn模式下跑yarn-client时出现无法初始化SparkContext错误.

技术分享

 

17/09/27 16:17:54 INFO mapreduce.Job: Task Id : attempt_1428293579539_0001_m_000003_0, Status : FAILED
Container [pid=7847,containerID=container_1428293579539_0001_01_000005] is running beyond virtual memory limits. Current usage: 123.5 MB of 1 GB physical memory used; 2.6 GB of 2.1 GB virtual memory used. Killing container.

 技术分享

 

jdk1.7的时候,没有如下报错,但是java1.8出现

ERROR spark.SparkContext: Error initializing SparkContext.
 
ERROR yarn.ApplicationMaster: RECEIVED SIGNAL 15: SIGTERM

原因可能与yarn配置文件中 containers 的默认属性有关,被强制限定了物理内存

技术分享

可以尝试中hadoop的conf下yarn.xml配置文件中添加一下属性:

<property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>

除此之外,Spark官网上也有Spark Properties说明,其中给出了默认的值

技术分享

 

 我的最终方法是直接复制SPARK_HOME/conf下的spark-defaults.conf.template,改名为spark-defaults.conf ,vim  spark-defaults.conf 把默认值加到1G

技术分享

spark.yarn.am.memory            1g

然后再执行任务命令就没有问题了

[root@srv01 conf]# ./spark-submit  --class org.apache.spark.examples.SparkPi  --deploy-mode client  --master yarn --driver-memory 2g --queue default /usr/spark/lib/spark-examples-1.6.1-hadoop2.6.0.jar

技术分享

 技术分享

 

Spark- Spark Yarn模式下跑yarn-client无法初始化SparkConext,Over usage of virtual memory

标签:ima   mem   conf   container   dem   image   内存   错误   说明   

原文地址:http://www.cnblogs.com/RzCong/p/7603153.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!