一、使用Sqoop将MySQL中的数据导入到HDFS/Hive/HBase
二、使用Sqoop将HDFS/Hive/HBase中的数据导出到MySQL
2.3 HBase中的数据导出到mysql
目前没有直接的命令将HBase中的数据导出到MySQL,但可以先将HBase中的数据导出到HDFS中,再将数据导出到MySQL。
三、使用Sqoop将Orac...
分类:
数据库 时间:
2014-05-26 05:48:46
阅读次数:
304
RPC(remote procedure call)不同java进程间的对象方法调用,一方称作服务端,一方称作客户端;被调用的对象的方法执行发生在server端
首先应该编写服务端MyServer,客户端MyClient,操作对象类MyBiz(根据服务端方法参数推测的),操作对象接口MyBizable(根据客户端方法参数推测的)
通过查看源码,一步步向里查看,直到没有return该方法出现...
分类:
编程语言 时间:
2014-05-26 05:34:16
阅读次数:
471
package com.kane.hdfs;
import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class Test {...
记录在不同的学习使用阶段,个人对Hadoop的认识情况,当前入门阶段,介绍入门阶段对Hadoop的看法。...
分类:
其他好文 时间:
2014-05-26 03:18:12
阅读次数:
275
今天在win32下通过navicat
远程登录Mysql时出现如下错误:想都不用想,肯定是Mysql的访问权限问题。首先,通过终端(我用的是SSH)远程登录到Linux服务器,为了安全起见,先改一下Mysql数据的root用户密码:?1234567891011[plain]
[hadoop@h1 ~...
分类:
数据库 时间:
2014-05-26 02:00:26
阅读次数:
346
点击browserFilesystem,和命令查看结果一样
当我们查看hadoop源码时,我们看到hdfs下的hdfs-default.xml文件信息
我们查找${hadoop.tmp.dir}这是引用变量,肯定在其他文件有定义,在core-default.xml中查看到,这两个配置文件有个共同点:
就是不要修改此文件,但可以复制信息到core-site.xml和hdfs-sit...
分类:
Web程序 时间:
2014-05-25 02:02:13
阅读次数:
388
Hadoop的分布式文件系统(HDFS)是Hadoop的很重要的一部分,本文先简单介绍HDFS的几个特点,然后再分析背后的原理,即怎样实现这种特点的。
HDFS特点
1、高容错性。这是HDFS最核心的特性了,把大量数据部署在便宜的硬件上,即使其中某些磁盘出现故障,HDFS也能很快恢复丢失的数据。
2、简单一致性。这个的意思是HDFS适合一次写入,多次读取的程序,文件写入后,就不需要修改了。像...
分类:
其他好文 时间:
2014-05-25 01:02:09
阅读次数:
285
(转载请注明出处:http://blog.csdn.net/buptgshengod)1.参会有感 首先还是非常感谢CSDN能给我票,让我有机会参加这次中国云计算峰会。感觉不写点什么对不起CSDN送我的门票(看到网上卖一千多一张呢)。 还是得从国家会议中心说起,两年前lz曾经在那当过IDF的志愿者,当时是纯体力劳动,负责给参会人员发一些杂志什么的,当时苦逼的为了多蹭一个盒饭...
分类:
其他好文 时间:
2014-05-25 00:59:08
阅读次数:
458
除介绍的命令外,还有许多bin/hadoop.dfs命令,以上介绍的只是帮助你开始使用HDFS,运行bin/hadoop dfs不带任何参数会列出所有FsShell系统提供的命令,当你遇到问题时执行bin/hadoop dfs –help commandName会显示这个命令的用法。
下面是所有命令的介绍,介绍之前先定义一下参数的意义:
1. 斜体:表示用户输入的变量。
...
分类:
其他好文 时间:
2014-05-24 19:47:01
阅读次数:
338
配置haoop全路径:gedit.profileexportPATH=/home/hadoop/hadoop/bin:$PATH自定义命令gedit.bashrcaliasfs=‘hadoopfs‘
分类:
其他好文 时间:
2014-05-24 15:25:19
阅读次数:
254