这次 我们以指定executor-memory参数的方式来启动spark-shell:
启动成功了
在命令行中我们指定了spark-shell运行暂用的每个机器上的executor的内存为1g大小,启动成功后参看web页面:
从hdfs上读取文件:
在命令行中返回的MappedRDD,使用toDebugString,可以查看其line...
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 1.2.0
/_/
Using Scala version 2.10.4 (Java HotSpot(TM) 64-B...
1. Spark Shell测试Spark Shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言。即使你对Scala不熟悉,仍然可以使用这一工具。Spark Shell使得用户可以和Spark集群进行交互,提交查询,这便于调试,也便于初学者使用Spark。测试案例...
分类:
其他好文 时间:
2014-12-01 12:50:02
阅读次数:
1631
第三步:测试Spark集群 把Spark安装包下的”README.txt”上传到 通过hdfs的web控制台可以发现成功上传了文件: 使用“MASTER:spark://SparkMaster:7077?./spark-shell”命令启动Spark?shell: 接下来通过以下命...
分类:
其他好文 时间:
2014-11-19 14:21:03
阅读次数:
211
第三步:测试Spark集群把Spark安装包下的”README.txt”上传到通过hdfs的web控制台可以发现成功上传了文件:使用“MASTER:spark://SparkMaster:7077./spark-shell”命令启动Sparkshell:接下来通过以下命令读取刚刚上传到HDFS上的“...
分类:
其他好文 时间:
2014-11-19 14:08:57
阅读次数:
220
并行化scala集合(Parallelize)//加载数据1~10val num=sc.parallelize(1 to 10)//每个数据项乘以2,注意 _*2记为一个函数(fun) val doublenum = num.map(_*2) //内存缓存数据doublenum.cache() //...
分类:
其他好文 时间:
2014-10-02 22:54:43
阅读次数:
266
Quick Start
Interactive Analysis with the Spark Shell
BasicsMore on RDD OperationsCaching
Standalone ApplicationsWhere to Go from Here
This tutorial provides a quick introduction to using Sp...
分类:
其他好文 时间:
2014-09-15 12:57:48
阅读次数:
258
./bin/spark-shell --master spark://MASTER:PORT启动集群模式:MASTER=spark://`hostname`:7077 bin/spark-shellbin/spark-shell --master spark://es122:7077单机模式:bin...
分类:
其他好文 时间:
2014-09-12 11:52:33
阅读次数:
183
第一步:通过Spark的shell测试Spark的工作 ? Step1:启动Spark集群,这一点在第三讲讲的极为细致,启动后的WebUI如下: Step2:启动Spark Shell: 此时可以通过如下Web控制台查看shell的情况: Step3:把Spark安装目...
分类:
其他好文 时间:
2014-09-11 13:59:12
阅读次数:
171
第一步:通过Spark的shell测试Spark的工作Step1:启动Spark集群,这一点在第三讲讲的极为细致,启动后的WebUI如下:Step2:启动Spark Shell:此时可以通过如下Web控制台查看shell的情况:Step3:把Spark安装目录“README.md”拷贝到HDFS系统...
分类:
其他好文 时间:
2014-09-11 13:52:12
阅读次数:
228