码迷,mamicode.com
首页 > 其他好文 > 详细

spark、sparkR部署

时间:2016-05-13 01:18:11      阅读:157      评论:0      收藏:0      [点我收藏+]

标签:

1、配置java环境

tar -zxvf jdk-8u77-linux-x64.tar.gz -C /opt/java/

vi /etc/profile

export JAVA_HOME=/opt/java/jdk1.8.0_77
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:{JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

source /etc/profile

2、安装R

我们希望能够使用R语言编写Spark程序,在本地安装R解释器

添加数据源(本机为ubuntu12.04选trusty)

deb http://mirror.bjtu.edu.cn/cran/bin/linux/ubuntu trusty/


sudo apt-get install r-base-core=3.1.3-1trusty

3、安装hadoop

wget   http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

下载完成解压后修改配置文件,编辑 /etc/profile hadoop-env.sh文件、core-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xml修改完成后初始化、启动

 ./bin/hdfs namenode -format

  ./sbin/start-all.sh

 jps

技术分享

4、安装scala

解压安装并配置环境变量,安装完成可以查看版本信息

技术分享

5、安装spark

解压后设置环境变量

    export SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6
    export PATH=$SPARK_HOME/bin:$PATH

conf目录下复制并重命名spark-env.sh.templatespark-env.sh后添加

export JAVA_HOME=your java home
export SCALA_HOME=your scala home
export SPARK_MASTER_IP=TMaster
export SPARK_WORKER_MEMORY=4G

启动并测试:

./sbin/start-all.sh

./bin/run-example SparkPi    

技术分享

6、启动sparkR   

./bin/sparkR

技术分享

7、SparkR进行行数统计

lines<-SparkR:::textFile(sc,"README.md")

count(lines)







spark、sparkR部署

标签:

原文地址:http://blog.csdn.net/ssxysxy123/article/details/51346639

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!