码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop--SecondNameNode导致服务启动时间超长

时间:2015-02-05 14:59:25      阅读:124      评论:0      收藏:0      [点我收藏+]

标签:hadoop

最近遇到个问题,每次重启Hadoop发现HDFS控制台都无法访问,并且查看nameNode的JOBTracker日志,如下

2015-02-05 09:36:18,935 ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:hadoop cause:java.net.ConnectException: Call to haier002/10.255.254.3:9099 failed on connection exception: java.net.ConnectException: Connection refused

连接9099端口无法连接,开始以为是权限的问题,但是以前是好用的,后台定为到是服务9099端口没启动起来,经过一番查阅

secondNameNode讲解

http://blog.chinaunix.net/uid-20577907-id-3524135.html


SecondNameNode,会备份文件到edit.new文件中,然后重启的时候加载此文件,详细功能间上面网址


突然我就想到是不是由于edit.new文件太大导致加载缓慢,服务一直处于加载中。

结果查看edit.new 100+G,原来是这样。


下面edit.new的存放路径查找方法。

在nameNode服务器

查看Hadoop目录conf下,core-site.xml找到

<property>
  <name>dfs.data.dir</name>
  <value>/opt/liveEpg/hadoop/working/data</value>
  <description>Determines where on the local filesystem an DFS data node
  should store its blocks.  If this is a comma-delimited
  list of directories, then data will be stored in all named
  directories, typically on different devices.
  Directories that do not exist are ignored.
  </description>
</property>

在/opt/liveEpg/hadoop/working/data下我们 cd name/current

就可以看到edit.new文件,使用命令 du -sh ./* 我们就可以查看文件大小,将此文件删除掉即可。

[hadoop@haier002 current]$ du -sh ./*
106G	./edits
24M	./fsimage
4.0K	./fstime
4.0K	./VERSION
[hadoop@haier002 current]$ ls
edits  fsimage  fstime  VERSION
[hadoop@haier002 current]$ > edits 




Hadoop--SecondNameNode导致服务启动时间超长

标签:hadoop

原文地址:http://blog.csdn.net/gaopeng0071/article/details/43527783

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!