码迷,mamicode.com
首页 >  
搜索关键字:spark streaming动手实战    ( 7001个结果
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(3)
第四步修改配置文件slaves,如下所示:我们设置Hadoop集群中的从节点为SparkWorker1和SparkWorker2,把slaves文件的内容修改为:第五步修改配置文件core-site.xml,如下所示:把core-site.xml文件的内容修改为:上述是core-site.xml文件的最小化配置,core-site.xml各项配置可..
分类:其他好文   时间:2014-10-10 17:15:24    阅读次数:210
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(3)
第四步修改配置文件slaves,如下所示: 我们设置Hadoop集群中的从节点为SparkWorker1和SparkWorker2,把slaves文件的内容修改为: 第五步修改配置文件core-site.xml,如下所示: 把core-site.xml文件的内容修改为: 上述是core-site.xml文件的最小化配置,core-si...
分类:其他好文   时间:2014-10-10 12:26:24    阅读次数:148
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(3)
第四步修改配置文件slaves,如下所示: 我们设置Hadoop集群中的从节点为SparkWorker1和SparkWorker2,把slaves文件的内容修改为: 第五步修改配置文件core-site.xml,如下所示: 把core-site.xml文件的内容修改为...
分类:其他好文   时间:2014-10-10 11:56:15    阅读次数:118
sparkSQL1.1入门之二:sparkSQL运行架构
在介绍sparkSQL之前,我们首先来看看,传统的关系型数据库是怎么运行的。当我们提交了一个很简单的查询: SELECT a1,a2,a3 FROM tableA Where condition 可以看得出来,该语句是由Projection(a1,a2,a3)、Data Source(tableA)、Filter(condition)组成,分别对应sql查询过程中的Result...
分类:数据库   时间:2014-10-10 10:48:14    阅读次数:2980
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令使配置生效。接下来在hadoop目录下按照如下命令创建文件夹:接下..
分类:其他好文   时间:2014-10-09 20:58:38    阅读次数:216
html5实现大文件断点续传
项目中实现的html5断点续传。使用spark-md5.js计算文件MD5值,resumable.js和file api实现断点续传。后台使用java接收文件流,不支持html5的浏览器使用插件进行断点续传。以下是html5的demo:
分类:Web程序   时间:2014-10-09 17:27:28    阅读次数:344
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压: 修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令...
分类:其他好文   时间:2014-10-09 17:16:48    阅读次数:168
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压: 修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令使配置生效。 接下来在hadoop目录下按照如下命令创建文件夹: \接下来开始...
分类:其他好文   时间:2014-10-09 16:17:18    阅读次数:181
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令使配置生效。接下来在h...
分类:其他好文   时间:2014-10-09 15:57:48    阅读次数:179
Spark RDD API详解(一) Map和Reduce
本文用实例介绍Spark中RDD和MapReduce相关的API。...
分类:Windows程序   时间:2014-10-09 02:10:47    阅读次数:367
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!