码迷,mamicode.com
首页 >  
搜索关键字:hadoop hdfs命令    ( 13969个结果
hadoop作业调优参数整理及原理
1 Map side tuning参数1.1 MapTask运行内部原理 当map task开始运算,并产生中间数据时,其产生的中间结果并非直接就简单的写入磁盘。这中间的过程比较复杂,并且利用到了内存buffer来进行已经产生的部分结果的缓存,并在内存buffer中进行一些预排序来优化整个map.....
分类:其他好文   时间:2014-05-20 01:54:58    阅读次数:341
hadoop中日志聚集问题
遇到的问题:当点击上面的logs时,会出现下面问题:这个解决方案为:By default, Hadoop stores the logs of each container in the node where that container was hosted. While this is irre...
分类:其他好文   时间:2014-05-19 10:33:13    阅读次数:369
【调查】云计算,你关注的技术热点在哪里?
UCloud云服务以大家所称道的高性能和高稳定性,走进了越来越多的大众视野。大家都对UCloud云计算平台的技术实现方式非常好奇。UCloud云主机的高性能是如何实现的?如何使得SATA跑过SSD?持久化分布式内存存储机制是怎样的?如何实现云计算模式下的Hadoop多租户隔离?分布式虚拟交换机又.....
分类:其他好文   时间:2014-05-19 08:28:47    阅读次数:338
Install RHadoop with Hadoop 2.2 – Red Hat Linux
PrerequisiteHadoop 2.2 has been installed (and the below installation steps should be applied on each of Hadoop node)Step 1. Install R (by yum)[hadoop...
分类:系统相关   时间:2014-05-17 21:51:24    阅读次数:671
SNN--Second Name Node
NameNode有这么几个配置:PropertyDescriptionSuggested valuedfs.name.dirDirectory in NameNode’s local filesystem to store HDFS’s metadata/home/hadoop/dfs/namedf...
分类:其他好文   时间:2014-05-17 18:56:09    阅读次数:367
HDFS基础和java api操作
1. 概括适合一次写入多次查询情况,不支持并发写情况通过hadoop shell 上传的文件存放在DataNode的block中,通过linux shell只能看见block,看不见文件(HDFS将客户端的大文件存放在很多节点的数据块中,Block本质上是一个逻辑概念,它是hdfs读写数据的基本单位...
分类:编程语言   时间:2014-05-17 18:38:16    阅读次数:364
Hive安装与配置
Hive安装配置详解本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程。1、下载安装包到官方网站下载最新的安装包,这里以Hive-0.12.0为例:$tar-zxfhive-0.12.0-bin.tar.gz-C/home/ubuntu/hive-0.12.0在这里,HIVE_HOME=”/home/ubuntu/hive-0.12.0”。..
分类:其他好文   时间:2014-05-16 02:36:44    阅读次数:369
【甘道夫】MapReduce实现矩阵乘法--实现代码
MapReduce实现矩阵乘法--实现代码...
分类:其他好文   时间:2014-05-15 23:57:37    阅读次数:390
hadoop-ha配置
HADOOP HA配置 hadoop2.x的ha配置,此文档中描述有hdfs与yarn的ha配置。 此文档的假定条件是zk已经安装并配置完成,其实也没什么安装的。 hdfs ha配置 首先,先配置core-site.xml配置文件: 在老版本中使用mr1时,还可能使用fs.default.name来进行配置   fs.defaultFS 此处配置的mycluster目前还没...
分类:其他好文   时间:2014-05-15 23:40:10    阅读次数:705
数据导入HBase最常用的三种方式及实践分析
数据导入HBase最常用的三种方式及实践分析         摘要:要使用Hadoop,需要将现有的各种类型的数据库或数据文件中的数据导入HBase。一般而言,有三种常见方式:使用HBase的API中的Put方法,使用HBase 的bulk load工具和使用定制的MapReduce Job方式。本文均有详细描述。        【编者按】要使用Hadoop,数据合并至...
分类:其他好文   时间:2014-05-15 18:15:19    阅读次数:495
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!