码迷,mamicode.com
首页 >  
搜索关键字:hdfs dfsadmin    ( 4996个结果
Hadoop 2.4.0新特性介绍
在2014年4月7日,Apache公布了Hadoop 2.4.0 。相比于hadoop 2.3.0,这个版本号有了一定的改进,突出的变化能够总结为下列几点(官方文档说明):1 支持HDFS訪问控制列表(ACL,Access Control Lists) 这个特性攻克了在一定情况下,文件权限訪...
分类:其他好文   时间:2014-06-29 06:07:36    阅读次数:299
SparkSQL之旅
1.准备数据employee.txt1001,Gong Shaocheng,11002,Li Dachao,11003,Qiu Xin,11004,Cheng Jiangzhong,21005,Wo Binggang,3将数据放入hdfs[root@jfp3-1 spark-studio]# hdf...
分类:数据库   时间:2014-06-29 00:17:54    阅读次数:415
Hadoop通过c语言API访问hdfs
Hadoop给我们提供了使用c语言访问hdfs的API,下面进行简要介绍:环境:ubuntu14.04hadoop1.0.1jdk1.7.0_51访问hdfs的函数主要定义在hdfs.h文件中,该文件位于hadoop-1.0.1/src/c++/libhdfs/文件夹下,而相应的库文件是位于hado...
分类:Windows程序   时间:2014-06-28 22:50:43    阅读次数:374
Flume监听文件目录sink至hdfs配置
一:flume介绍 Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。,Flume架构分为三个部分 源-Source,接收器-Sink,通道-Channel。二:配置...
分类:其他好文   时间:2014-06-21 08:59:50    阅读次数:245
Flume概述和简单实例
##Flume概述[Flume](http://flume.apache.org/)是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(比如文本、HDFS、Hbase等)的能力 ...
分类:其他好文   时间:2014-06-20 22:18:57    阅读次数:309
nutch,solr集成在hadoop上
nutch,solr集成在hadoop上 nutch是一个应用程序,在我的这个项目里主要是做爬虫用,爬取后的内容寄存在hdfs上,所以在hdfs结合模块现已结合上去了。 solr: 在eclipse新建动态页面项目,删去WebContent的一切内容。 在solr/dist下(或许/solr3.6....
分类:其他好文   时间:2014-06-18 10:30:02    阅读次数:223
hadoop和hdfs环境搭建
参考链接:http://blog.csdn.net/zolalad/article/details/11470449环境:ubuntu14.04 hadoop1.0.1下面以3台机器为例,讲解安装过程1)准备3台机器,一台作为nameNode,命名为master,两台作为dataNode,命名为sl...
分类:其他好文   时间:2014-06-18 00:06:18    阅读次数:243
Hadoop入门进阶步步高(二)-目录介绍
二、Hadoop目录结构这里重点介绍几个目录bin、conf及lib目录。1、$HADOOP_HOME/bin目录文件名称说明hadoop用于执行hadoop脚本命令,被hadoop-daemon.sh调用执行,也可以单独执行,一切命令的核心hadoop-config.shHadoop的配置文件hadoop-daemon.sh通过执行hadoop命令来启动/停止一个守护进程(daemon)。该命令...
分类:其他好文   时间:2014-06-16 23:13:29    阅读次数:338
Hadoop入门进阶步步高(一)-环境准备
前言Hadoop从存储上来说,是类似于冗余磁盘阵列(RAID)的存储方式,将数据分散存储并提供以提供吞吐量,它的存储系统就是HDFS(Hadoop Distuibute Fils System);从计算上来说,它通过MapReduce模型,将大数据的计算分发到多台计算机上完成,再将结果合并,减少计算的时间。Hadoop适合于:1、超大数据的计算;2、一次写入、多次读取的模式;3、可以跑在普通的硬件...
分类:其他好文   时间:2014-06-16 22:58:13    阅读次数:250
Hadoop入门进阶步步高(三)-配置Hadoop
三、配置Hadoop1、设置$HADOOP_HOME/conf/hadoop-env.sh这个文件中设置的是Hadoop运行时需要的环境变量,在1.2.1版中共有19个环境变量,如下: 变量名称默认值说明JAVA_HOME 设置JDK的路径,这个必须设置,否则Hadoop无法启动,值如:/usr/local/jdk1.6.0_33HADOOP_CLASSPATH空这个用以设置用户的类路径,也可以在...
分类:其他好文   时间:2014-06-16 19:59:35    阅读次数:380
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!