标签:
其实官网有比较详实的说明,英语好的可以直接看官网,地址
这个省略,官网显示1.6可以,但是我用openjdk1.6出了异常,JDK1.6没试,直接用了JDK1.7
配置好环境变量
vi /etc/profile
JAVA_HOME=/jdk1.7.0_45 CLASSPATH=.:$JAVE__HOME/lib.tools.jar PATH=$PATH:$JAVA__HOME/bin
添加完后执行命令使配置生效
source /etc/profile
$ sudo apt-get install ssh $ sudo apt-get install rsync
查是32还是64位的办法
cd hadoop-2.7.0/lib/native file libhadoop.so.1.0.0
hadoop-2.7.0/lib/native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, AMD x86-64, version 1 (SYSV), not stripped
hadoop配置文件指定java路径
etc/hadoop/hadoop-env.sh
export JAVA_HOME=/jdk1.7.0_45
系统环境变量
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.0 export PATH=$PATH:$HADOOP_HOME/bin
添加完后执行命令使配置生效
source /etc/profile
执行命令查看是否成功
hadoop version
etc/hadoop/core-site.xml:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
etc/hadoop/hdfs-site.xml:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
$ ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys $ export HADOOP\_PREFIX=/usr/local/hadoop
$ bin/hdfs namenode -format $ sbin/start-dfs.sh
打开浏览器 http://localhost:50070/看是否成功
hdfs配置:username最好和当前用户名相同,不然会可能出现权限问题
$ bin/hdfs dfs -mkdir /user $ bin/hdfs dfs -mkdir /user/<username>
etc/hadoop/mapred-site.xml:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
etc/hadoop/yarn-site.xml:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
启动yarn
$ sbin/start-yarn.sh
http://localhost:8088/查看是否成功
至此hadoop单节点伪分布式安装配置完成
spark的安装相对就要简单多了
因为我之前已经有hadoop了所以选择第二个下载
cd conf cp spark-env.sh.template spark-env.sh cp spark-defaults.conf.template spark-defaults.conf vi conf/spark-env.sh
最后添加
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.0 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SPARK_DIST_CLASSPATH=$(hadoop classpath)
最后一个需要hadoop添加了环境变量才行。
官网配置中没有前两个配置,我运行例子时总报错,找不到hdfs jar 包。
./bin/run-example SparkPi 10
成功则到此配置完成
想运行python或者scala请参考官网
标签:
原文地址:http://my.oschina.net/laigous/blog/478438