码迷,mamicode.com
首页 > 其他好文 > 详细

spark 任务导致tmp目录过大

时间:2019-12-20 12:12:42      阅读:211      评论:0      收藏:0      [点我收藏+]

标签:blog   tmp目录   mba   port   环境   文件   disk   hdp   就会   

现象:hdp的集群没有配置spak的临时本地目录,默认在跑程序的时候会将中间过程的文件存放在本地的/tmp目录下

如果跑的spark数据量过大,就会导致/tmp下文件过大,最终导致根分区被占满,系统崩溃

解决办吧:修改spark的环境变量配置文件,在ambari界面上找到spark-env.sh的配置文件,添加参数

export SPARK_LOCAL_DIRS=spark.local.dir /disk1/sparktmp,/disk2/sparktmp

参考文档:https://blog.csdn.net/BDCHome/article/details/45396979

修改成功后,重新启动spark程序,然后再次测试

spark 任务导致tmp目录过大

标签:blog   tmp目录   mba   port   环境   文件   disk   hdp   就会   

原文地址:https://www.cnblogs.com/butterflies/p/12072058.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!