今天在centos6.3上搭建了hadoop+hive+spark系统,在运行/usr/local/spark-1.0.0/bin/spark-shell出现找不到hive相关的类,于是修改了spark-env.sh在spark_classpath里添加了hive的库路径exportSPARK_CLASSPATH=/usr/local/spark-1.0.0/lib_managed/jars/spark-assembly-1.0.0-..
分类:
其他好文 时间:
2014-08-28 15:00:30
阅读次数:
339
部署spark集群使用spark包spark-1.0.2-bin-hadoop2.tgz在spark-shell和java -jar访问hadoop hdfs上的文件写法是有区别的在spark-shell直接使用/user/ning/1.txt 之类的路径,不用加hdfs://host:port 的...
分类:
编程语言 时间:
2014-08-24 08:04:12
阅读次数:
261
在spark-shell中可以定制成接近shark的操作,让熟悉sql的人轻松上手。...
分类:
其他好文 时间:
2014-07-10 23:08:16
阅读次数:
210
之所以对spark shell的内部实现产生兴趣全部缘于好奇代码的编译加载过程,scala是需要编译才能执行的语言,但提供的scala repl可以实现代码的实时交互式执行,这是为什么呢?既然scala已经提供了repl,为什么spark还要自己单独搞一套spark repl,这其中的缘由到底何在?...
分类:
其他好文 时间:
2014-07-07 21:40:04
阅读次数:
367
欢迎转载,转载请注明出处,徽沪一郎。概要之所以对spark shell的内部实现产生兴趣全部缘于好奇代码的编译加载过程,scala是需要编译才能执行的语言,但提供的scala repl可以实现代码的实时交互式执行,这是为什么呢?既然scala已经提供了repl,为什么spark还要自己单独搞一套sp...
分类:
其他好文 时间:
2014-07-07 14:29:15
阅读次数:
205
欢迎转载,转载请注明出处,徽沪一郎。概要本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。实验环境搭建在进行后续操作前,确保下列条件已满足。下载spark binary 0.9.1安装scala安装sbt安装java启动spark-shell单机模式运...
分类:
其他好文 时间:
2014-07-07 14:14:34
阅读次数:
231
在Spark是一种计算框架,在Spark环境下,不仅支持操作单机文件,HDFS文件,同时也可以用Spark对Hbase操作。
企业中数据源会从HBase取出,这就涉及到了读取hbase数据,本文为了尽可能的让大家能尽快实践和操作Hbase,使用的是Spark Shell 来进行Hbase操作。
一、环境:
Haoop2.2.0
Hbase版本0.96.2-hadoop2, r158109...
分类:
其他好文 时间:
2014-07-01 09:29:54
阅读次数:
499