标签:
1.下载以及安装官网下载jdk,我下载的是1.8.0_45网址:http://www.oracle.com/technetwork/java/javase/downloads/index-jsp-138363.html如下所示:然后安装,默认安装路径是:/Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home2.测试是否安装成功在终端输入 :java -version如果安装成功,则会显示相应的java版本。
在Hadoop->conf目录下,找到hadoop-env.sh,打开编辑进行如下设置:export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home(去掉前面的注释#)注意JAVA_HOME的路径是否正确。
export HADOOP_HEAPSIZE=2000(去掉前面的注释#)注:有的博客中写道需要把下一行也注释掉
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"(去掉注释)我没找到这一句,所以没有这一项。
2.配置core-site.xml——指定了NameNode的主机名与端口<span style=""><?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>localhost:9000</value> </property> </configuration></span><span style=""><span style="font-size:14px;">3.<span style="font-family: Arial; line-height: 26px; color: rgb(51, 51, 51);"><span style="color: rgb(255, 0, 0);">配置hdfs-site.xml——指定了HDFS的默认参数副本数,因为仅运行在一个节点上,所以这里的副本数为1</span></span></span></span><span style="font-family: Arial; line-height: 26px;"></span><pre name="code" class="html"><span style=""><?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration></span>4.配置mapred-site.xml——指定了JobTracker的主机名与端口<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
5.ssh配置打开系统偏好设置中的共享,勾选远程登录,并选择所有用户。然后下面的方法可以是ssh免登陆终端输入:ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa此时在终端输入:ls ~/.ssh可以看到文件夹中有了id_dsa和id_dsa.pub,是ssh的一对私钥和公钥。接下来,将公钥追加到授权的key中去,然后终端输入:
<span style="font-size:14px;">cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys</span>就可以免登陆了。
6.设置环境变量
在启动Hadoop之前,有三个文件需要进行配置。
export HADOOP_HOME=/Users/liu/hadoop/hadoop-1.2.1 (根据你自己的目录进行设定)
export PATH=$PATH:$HADOOP_HOME/bin注明:export设置只对当前的bash登录session有效。这是存在内存里面的。如果你嫌麻烦,就直接写入etc中的profile文件里面就好。
1.测试
完成上面设置后,在终端输入:
$HADOOP_HOME/bin/hadoop namenode -format
如果出现以下情况:
则表示成功。
2.启动hadoop
$HADOOP_HOME/bin/start-all.sh
<span style="font-family: ‘Microsoft YaHei‘; ">如果出现以下情况:</span>
则hadoop启动成功。
标签:
原文地址:http://www.cnblogs.com/pincal/p/4621136.html