码迷,mamicode.com
首页 >  
搜索关键字:mahout hadoop canopy 聚类 大数据    ( 26726个结果
我的职业遇到了瓶颈
做了好多年的PHP,一直还停留在应用层的层次水平,貌似是遇到了发展瓶颈。在应用层,实现功能、快速开发、中小型架构、问题的解决方案,这些问题对自己来说已经达到高峰,也就是说,能在小公司负责整体的中小项目很easy。但是,目前自己急缺的是大项目,大架构,底层机制、各种原理、系统知识体系,这些的项目经验与...
分类:其他好文   时间:2014-05-01 16:11:22    阅读次数:330
CentOS 6.4 64位 源码编译hadoop 2.2.0
CentOS 6.4 64位 源码编译hadoop 2.2.0搭建环境:Centos 6.4 64bit1、安装JDK参考这里2、安装mavenmaven官方下载地址,可以选择源码编码安装,这里就直接下载编译好的wget http://mirror.bit.edu.cn/apache/maven/m...
分类:其他好文   时间:2014-05-01 15:17:23    阅读次数:524
hive如何使用中文查询条件
直接在hql中使用中文会报错:org.apache.hadoop.ipc.RemoteException: java.io.IOException: java.lang.RuntimeException: com.sun.org.apache.xerces.internal.impl.io.Malf...
分类:其他好文   时间:2014-05-01 04:26:42    阅读次数:415
如何把其他数据库中AUTO_INCREMENT约束的字段(如ID)导入Vertica数据库
如果在Vertica数据库在建一张同样带AUTO_INCREMENT约束字段(ID)的表,由于AUTO_INCREMENT约束的限制,COPY导入数据时会发生冲突,导致COPY执行失败。 经过分析研究及测试,先创建SEQUENCE,然后创建表并设置ID字段的缺省值为NEXTVAL('schemaname.sequencename'),就可COPY导入AUTO_INCREMENT约束字段的数据。...
分类:数据库   时间:2014-04-29 13:44:21    阅读次数:409
Hadoop2.3.0+Hbase0.96.1.1+Hive0.14.0+Zookeeper3.4.6+Sqoop1.99.3安装配置流程
Hadoop2.3.0+Hbase0.96.1.1+Hive0.14.0+Zookeeper3.4.6+Sqoop1.99.3安装配置流程 一、           配置Hadoop 源码包:hadoop-2.3.0-src.tar.gz 1.     安装以下软件: yum -yinstall  lzo-devel  zlib-devel gcc autoconf automake li...
分类:其他好文   时间:2014-04-29 13:37:20    阅读次数:541
SQL Server表分区详解
什么是表分区 一般情况下,我们建立数据库表时,表数据都存放在一个文件里。 但是如果是分区表的话,表数据就会按照你指定的规则分放到不同的文件里,把一个大的数据文件拆分为多个小文件,还可以把这些小文件放在不同的磁盘下由多个cpu进行处理。这样文件的大小随着拆分而减小,还得到硬件系统的加强,自然对我们操作数据是大大有利的。 所以大数据量的数据表,对分区的需要还是必要的,因为它可以提高s...
分类:数据库   时间:2014-04-29 13:33:20    阅读次数:544
Hadoop自学笔记(五)配置分布式Hadoop环境
如何把Hadoop配置到多台机器中,构建分布式数据处理环境...
分类:其他好文   时间:2014-04-28 10:44:41    阅读次数:293
Python,带你从小白到Python HelloWorld
写在前面: Why to learn Python?All in picture: 开始正文啦,本文截取了笔记中的部分,其他详细内容稍微会整理呈现在博客中... 本文解决以下问题: 一、什么是Python 二、配置Windows Python环境 三、配置Python的Eclipse开发环境 四、Hello World,Python,waiting f...
分类:编程语言   时间:2014-04-28 10:12:41    阅读次数:400
hbase 0.98.1集群安装
本文将基于hbase 0.98.1讲解其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:,转载请注明出处!1. 安装与配置1.1. 前置条件确保已经安装了hadoop并保证hadoop运行正常。关于hbase与hadoop的版本依赖关系,请参考:  https://hbase.apache.org/book/configuration.html#hadoop 关于java...
分类:其他好文   时间:2014-04-27 21:33:59    阅读次数:462
Hdfs的ACL测试
Hadoop从2.4.0版本开始支持hdfs的ACL,在CDH5.0当中也继承了该特性,下面对其进行一些测试: 一、启用ACL: dfs.permissions.enabled true dfs.namenode.acls.enabled true 二、测试ACL: ① [hadoop@master ~]$ groups hadoop 创建目录并上传文件: [...
分类:其他好文   时间:2014-04-27 21:18:00    阅读次数:306
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!