Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据,则MapReduce为海量的数据提供了计算。Hadoop 容易开发和运行处理大...
分类:
其他好文 时间:
2014-12-19 10:07:54
阅读次数:
307
1 运行环境说明... 31.1 硬软件环境... 31.2 机器网络环境... 32 书面作业1:编译并运行《权威指南》中的例3.2. 32.1 书面作业1内容... 32.2 运行代码... 32.3 实现过程... 42.3.1 创建代码目录... 42.3.2 建立例子文件上传到hdfs中....
分类:
其他好文 时间:
2014-12-19 08:10:17
阅读次数:
327
hive创建目录时相关的几个hdfs中的类:org.apache.hadoop.hdfs.DistributedFileSystem,FileSystem的具体实现类
org.apache.hadoop.hdfs.DFSClient,client操作hdfs文件系统的类
org.apache.hadoop.fs.permission.FsPermission文件权限相关类,主要的方法有getUMask和applyUMask..
分类:
其他好文 时间:
2014-12-19 01:58:23
阅读次数:
149
YARN
Hadoop2.0与HAdoop1.0的区别:
Hadoop1.0主要由HDFS和MapReduce两个系统够长,但在Hadoop2.0中主要由 Hadoop Common、HDFS 、Hadoop YARN和Hadoop MapReduce2.0构成。
Hadoop1.0更多是在于离线的...
分类:
其他好文 时间:
2014-12-18 14:56:59
阅读次数:
244
2014年11月25日,Storm发布了0.9.3的版本。Storm 0.9.3的版本修改了100个Bug,改进了与Kafka的集成,并增加了与HDFS和HBase的集成。改进了与Kafka的集成Apache Storm从0.9.2-incubating版本开始支持Kafka作为流数据的数据源。0....
分类:
其他好文 时间:
2014-12-17 20:12:03
阅读次数:
223
#!/bin/bash
hadoop_home=/opt/hadoop-2.4.0
tw_nginx_home=/var/www/nginx_0
cn_nginx_home=/var/www/nginx1
current_date=$(date +%Y%m%d)
echo "hadoop_home = $hadoop_home"
echo "tw_nginx_home = $t...
分类:
其他好文 时间:
2014-12-17 18:35:46
阅读次数:
378
本文发表于本人博客。这次来看看我们的客户端用url方式来连接JobTracker。我们已经搭建了伪分布环境,就知道了地址。现在我们查看HDFS上的文件,比如地址:hdfs://hadoop-master:9000/data/test.txt。看下面代码: static final String...
分类:
编程语言 时间:
2014-12-17 09:48:36
阅读次数:
175
本文提供几个简单的实例,来说明如何使用hadoop的java API针对HDFS进行文件上传、创建、重命名、删除操作本文地址:http://www.cnblogs.com/archimedes/p/hdfs-api-operations.html,转载请注明源地址。1.上传本地文件到HDFS通过Fi...
Hadoop 命令手册
1、 用户命令
1.1 archive
1.1.1 什么是Hadooparchives
Hadoop的归档文件,每个文件以块方式存储,块的元数据存储在名称节点的内存里,此时存储一些小的文件,HDFS会较低效。因此,大量的小文件会耗尽名称节点的大部分内存。(注意,相较于存储文件原始内容所需要的磁盘空间,小文件所需要的空间不会更多...
分类:
其他好文 时间:
2014-12-16 15:08:12
阅读次数:
376
本文发表于本人博客。 我们知道HDFS是Hadoop的分布式文件系统,那既然是文件系统那最起码会有管理文件、文件夹之类的功能吧,这个类似我们的Windows操作系统一样的吧,创建、修改、删除、移动、复制、修改权限等这些操作。 那我们现在来看看hadoop下是怎么操作的。 先输入hadoop ...
分类:
系统相关 时间:
2014-12-16 13:22:12
阅读次数:
241