码迷,mamicode.com
首页 >  
搜索关键字:scala bigdata 大數據 spark    ( 10680个结果
Java领域的IM解决方案
Java领域的即时通信的解决方案可以考虑openfire+spark+smack。当然也有其他的选择。 Openfire是基于Jabber协议(XMPP)实现的即时通信服务器端版本,目前建议使用3.6.4版本,这个版本是当前最新的版本,而且网上可以找到下载的源代码。 即时通信客户端可使用spark2.5.8,这个版本是目前最新的release版本,经过测试发现上一版本在视频支持,msn网关支持...
分类:编程语言   时间:2014-05-13 15:55:13    阅读次数:252
Spark on YARN--WordCount、TopK
1、首先利用http://dongxicheng.org/framework-on-yarn/spark-eclipse-ide/搭建好的Eclipse(Scala)开发平台编写scala文件,内容如下:import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ object HdfsWordCount {...
分类:其他好文   时间:2014-05-13 05:35:12    阅读次数:379
Spark0.9 安装
1、下载Scala     wget  http://www.scala-lang.org/files/archive/scala-2.10.3.tgz    tar xvzf scala-2.10.3.tgz -C /usr/local 2、下载Spark    wget http://www.apache.org/dist/incubator/spark/spark-0.9.0-inc...
分类:其他好文   时间:2014-05-11 02:06:21    阅读次数:368
spark shuffle过程分析
spark shuffle流程分析 回到ShuffleMapTask.runTask函数 现在回到ShuffleMapTask.runTask函数中: overridedef runTask(context:TaskContext): MapStatus = { 首先得到要reduce的task的个数。 valnumOutputSplits= dep.partitioner.num...
分类:其他好文   时间:2014-05-09 22:58:33    阅读次数:574
Apache Spark源码走读之6 -- 存储子系统分析
Spark计算速度远胜于Hadoop的原因之一就在于中间结果是缓存在内存而不是直接写入到disk,本文尝试分析Spark中存储子系统的构成,并以数据写入和数据读取为例,讲述清楚存储子系统中各部件的交互关系。
分类:其他好文   时间:2014-05-09 05:14:32    阅读次数:405
在eclipse中配置spark 0.9.1源码的开发环境
一、准备工作: 1、下载release版spark 0.9.1,本次用的版本是spark-0.9.1-bin-cdh4。 2、下载scala IDE 3.0.2,这个版本ide的支持scala 2.10版。 二、配置工作 1、在ide中新建scala项目,注意jre要用jdk1.7版的。如下图: 2...
分类:系统相关   时间:2014-05-09 03:27:34    阅读次数:512
Flex4 Halo组件 List 和 DataGrid
Flex1 到 Flex3 使用的都是 Halo组件,这里将介绍Halo 组件中的List 和 DataGrid 。其中 DataGrid 是显示多列数据中最常用的方式。但是在Spark中还有没对应DataGrid的组件。 先写个“食物”的模型 Dinner.as 。 package model { [Bindable] public class Dinner { public...
分类:其他好文   时间:2014-05-09 02:34:26    阅读次数:306
ODPS 下map / reduce 的编写
接到阿里电话说实习和竞赛智能二选一, 真伤心, 在实习前发挥余热吧.      总结一下在ODPS下 编写map / reduce 和进行购买预测的过程.      首先这里的hadoop输入输出都是表的形式, 我们需要一张输入表和一张输出表.    输入表为 提供的 t_alibaba_bigdata_user_brand_total_1  输出表为自定义的wc_out    w...
分类:其他好文   时间:2014-05-09 02:33:28    阅读次数:418
Spork: Pig on Spark实现分析
介绍 Spork是Pig on Spark的highly experimental版本,依赖的版本也比较久,如之前文章里所说,目前我把Spork维护在自己的github上:flare-spork。 本文分析的是Spork的实现方式和具体内容。 Spark Launcher 在hadoop executionengine包路径下,写了一个Spark启动器,同MapReduceLauncher类似,会在launchPig的时候,把传入的物理执行计划进行翻译。 MR启动器翻译的是MR的操作,以及进一步的MR...
分类:其他好文   时间:2014-05-09 02:08:17    阅读次数:358
Task的执行过程分析
Task的执行过程分析 Task的执行通过Worker启动时生成的Executor实例进行, caseRegisteredExecutor(sparkProperties)=> logInfo("Successfullyregistered with driver") //Make this host instead of hostPort ? executor= newExecuto...
分类:其他好文   时间:2014-05-08 16:01:31    阅读次数:667
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!