码迷,mamicode.com
首页 >  
搜索关键字:hadoop 2.0    ( 13955个结果
hadoop多次格式化后,导致datanode启动不了,怎么办?(伪分布式)
根据当初 hadoop 安装目录下 conf 目录的 core-site.xml 的设置,找到该目录:进入该目录在 data 和 name 文件夹下均有 current 文件夹 ,和 current 文件夹下有 VERSION 文件主要要做的是使这两个文件中的 namespaceID 相同接下来就是...
分类:其他好文   时间:2014-05-09 05:15:30    阅读次数:305
Lucene suggest [转]
TheBig Data Zoneis presented bySplunk, the maker of data analysis solutions such asHunk, an analytics tool for Hadoop, and theSplunk Web Framework.Liv...
分类:其他好文   时间:2014-05-08 19:31:55    阅读次数:596
基于HBase的手机数据备份系统
基于HBase实现的手机数据备份系统,实现了手机关键信息的备份,如短信、联系人等。 包括服务器端(Server)和客户端(Client) Server运行环境:Hadoop+HBase+Tomcat Client运行环境: Eclipse+Android2.3 ----------------------------------------------------- ...
分类:移动开发   时间:2014-05-08 16:07:49    阅读次数:390
Hadoop-4、Mapred数据去重
import java.io.IOException;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.Text;import org.ap...
分类:其他好文   时间:2014-05-08 11:27:24    阅读次数:309
Hadoop-5、排序(Combiner泛谈)
一、Combiner作用1、combiner最基本是实现本地key的聚合,对map输出的key排序,value进行迭代。如下所示:map: (K1, V1) → list(K2, V2)combine: (K2, list(V2)) → list(K2, V2)reduce: (K2, list(V...
分类:其他好文   时间:2014-05-08 09:37:49    阅读次数:472
hive-mysql安装配置
默认情况下,hive的元数据信息存储在内置的Derby数据中。Facebook将hive元数据存储在关系数据库1、安装好mysql ,sudo apt-get install mysql-server2、创建mysql用户hadoop $mysql-uroot-p 进入root用户 mysql>.....
分类:数据库   时间:2014-05-07 20:40:00    阅读次数:554
hadoop yarn running beyond physical memory used
老是报物理内存越界,kill container,然后把yarn.scheduler.minimum-allocation-mb设成2048就好了跟这个yarn.nodemanager.pmem-check-enabled参数应该也有关系在这篇文章中得到启发:http://bise.aliapp.c...
分类:其他好文   时间:2014-05-07 02:15:35    阅读次数:409
Hadoop-3、Mapred并行思想WordCount
import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.ap...
分类:其他好文   时间:2014-05-07 01:06:02    阅读次数:271
Hbase学习笔记(安装和基础知识及操作)
参考书籍: Hadoop in action, 吴超沉思录1.Hbase简介 1.面向列的分布式数据库 2. 以HDFS作为文件系统 3. 利用MapReduce处理Hbase中海量数据 4. ZookKeeper作为协调工具 5. sqoop提供Hbase到关系型数据库中数据导入功能 ...
分类:其他好文   时间:2014-05-07 00:35:59    阅读次数:424
Hadoop权威指南读书笔记
mapreduce数据本地化(核心特征)、无共享。    1  HDFS的设计 为了存储超大文件 流式访问(一次写入多次读取)商用硬件(不需要超豪华的机器)    2  数据快(block) 磁盘一般是512字节 HDFS默认是64M 但与其他文件系统不同的是小于一个块大小的文件不会占用整个块的空间。块为什么设置这么大?(最小化寻址开销)块抽象带来的好处(一个文件的...
分类:其他好文   时间:2014-05-06 23:26:24    阅读次数:519
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!