码迷,mamicode.com
首页 > 其他好文 > 详细

spark深入:配置文件与日志

时间:2017-06-23 18:20:54      阅读:254      评论:0      收藏:0      [点我收藏+]

标签:配置文件   code   value   stderr   ati   ges   ima   node   UI   

spark2.1与hadoop2.7.3集成,spark on yarn模式下,需要对hadoop的配置文件yarn-site.xml增加内容,如下:

<property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
</property>
<property>
        <name>yarn.log.server.url</name>
        <value>http://node2:19888/jobhistory/logs</value>
</property>
<property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
</property>
<property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
</property>

1、我先运行一个spark程序

bin/spark-shell --master local

2、登录Spark History server的web ui

http://node1:18080/

3、如下图,找到我刚才运行的程序

技术分享4、点击红框位置App ID,进入如下图页面

技术分享

5、点击红框位置Executor,进入下图页面

技术分享

6、右下角的stderr和stdout就是我们此行的目标了

<property>
        <name>yarn.log.server.url</name>
        <value>http://node2:19888/jobhistory/logs</value>
</property>

当你点击stderr或stdout,就会重定向到node2:19888。如下图

技术分享

spark深入:配置文件与日志

标签:配置文件   code   value   stderr   ati   ges   ima   node   UI   

原文地址:http://www.cnblogs.com/sorco/p/7070922.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!