码迷,mamicode.com
首页 >  
搜索关键字:Spark Mllib    ( 7026个结果
Ubuntu 安装 spark
环境: Unbunt 12.04 Hadoop 2.2.x Sprak 0.9 Scala scala-2.9.0.final.tgz 步骤 1. 下载 scala 2. 解压scala,然后修改/etc/profile,添加如下 export SCALA_HOME=/home/software/scala-2.9.0.final export PATH=$P...
分类:其他好文   时间:2014-06-05 11:52:46    阅读次数:484
Spark开源学习模块
Spark开源的各模块组成结构...
分类:其他好文   时间:2014-06-03 04:07:29    阅读次数:263
Spark 1.0.0版本发布
前言 今天Spark终于跨出了里程碑的一步,1.0.0版本的发布标志着Spark已经进入1.0时代。1.0.0版本不仅加入了很多新特性,并且提供了更好的API支持。Spark SQL作为一个新的组件加入,支持在Spark上存储和操作结构化的数据。已有的标准库比如ML、Streaming和GraphX也得到了很大程度上的增强,对Spark和Python的接口也变得更稳定。以下是几个主要的改进点...
分类:其他好文   时间:2014-06-03 00:43:41    阅读次数:269
Spark 1.0.0 横空出世 Spark on yarn 部署(hadoop 2.4)
就在昨天,北京时间5月30日20点多。Spark 1.0.0终于发布了:Spark 1.0.0 released 根据官网描述,Spark 1.0.0支持SQL编写:Spark SQL Programming Guide 个人觉得这个功能对Hive的市场的影响很小,但对Shark冲击很大,就像win7和winXP的关系,自相残杀嘛? 这么着急的发布1.x 版是商业行为还是货真价实的体现,让我们拭目以待吧~~~~ 本文是CSDN-撸大湿原创,如要转载请注明出处,谢谢:http://blog.csdn.net...
分类:其他好文   时间:2014-06-01 08:55:43    阅读次数:460
Apache Spark源码走读之12 -- Hive on Spark运行环境搭建
Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析。由于这一特性而收到广泛的欢迎。Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapRed...
分类:其他好文   时间:2014-05-30 14:23:07    阅读次数:409
Apache Storm源码阅读笔记
自从建了Spark交流的QQ群之后,热情加入的同学不少,大家不仅对Spark很热衷对于Storm也是充满好奇。大家都提到一个问题就是有关storm内部实现机理的资料比较少,理解起来非常费劲。尽管自己也陆续对storm的源码走读发表了一些博文,当时写的时候比较匆忙,有时候衔接的不是太好,此番做了一些整...
分类:其他好文   时间:2014-05-30 07:25:09    阅读次数:286
【spark系列3】spark开发简单指南
分布式数据集创建之textFile 文本文件的RDDs能够通过SparkContext的textFile方法创建,该方法接受文件的URI地址(或者机器上的文件本地路径,或者一个hdfs://, sdn://,kfs://,其他URI).这里是一个调用样例:scala> val distFile...
分类:其他好文   时间:2014-05-29 18:58:27    阅读次数:429
简单记录下spark环境搭建时的几个小问题
折腾了好几天,终于可以在CenOS下用eclipse写spark程序了当前环境是CentOS6.5,jdk7,scala2.10.4,spark0.9.1前期因为对linux不熟悉的原因花了不少时间查阅命令。折腾了不少时间,终于把jdk8,scala2.11.0环境变量配置好了。在此环境下可以正常编...
分类:其他好文   时间:2014-05-23 06:01:28    阅读次数:312
Cloudera CDH 5集群搭建(yum 方式)
Hadoop CDH YUM Spark...
分类:其他好文   时间:2014-05-22 22:56:05    阅读次数:521
Apache Spark源码走读之9 -- Spark源码编译
本来源码编译没有什么可说的,对于java项目来说,只要会点maven或ant的简单命令,依葫芦画瓢,一下子就ok了。但到了Spark上面,事情似乎不这么简单,按照spark officical document上的来做,总会出现这样或那样的编译错误,让人懊恼不已。
分类:其他好文   时间:2014-05-18 20:25:57    阅读次数:391
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!