标签:
由于sqoop2配置相对比较麻烦,此次使用的是sqoop1进行演示。
上传sqoop-1.4.4.bin__hadoop-2.0.4-alpha.tar.gz文件至/hadoop目录下,解压并重命名为sqoop-1.4.4,配置/etc/profile文件并source刷新。
将数据库连接驱动mysql-connector-5.1.8.jar拷贝到$SQOOP_HOME/lib里。
注意:如果是集群环境,则sqoop可以安装在任意一台节点上就可以。如果此节点已经指定了RM和NN的位置,则可以直接运行sqoop。
子节点为什么知道在上述三个文件中寻找NM和NN的位置?这是因为sqoop会读取 $HADOOP_HOME的值。
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods --target-dir ‘/sqoop‘ --fields-terminated-by ‘\t‘ –m 1
Sqoop //sqoop命令 Import //表示导入 --connect jdbc:mysql://192.168.8.100:3306/test //告诉jdbc,连接MySQL的url,即test数据库。3306是MySQL默认监听端口,192.168.8.100是MySQL的IP。 --username root //连接root的用户名 --password 123 //连接root的密码 --table goods //从goods导出的表名称 --fields-terminated-by ‘\t‘ //指定输出文件中的行的字段分隔符 --null-string ‘**‘ //NULL值转化成”**”保存,默认是NULL -m 1 //使用1个map作业,则产生一个结果文件。默认是4个 --append //追加数据到hdfs源文件中 --target-dir ‘/sqoop‘ //结果保存在 “/sqoop/” 文件夹中,直接在文件夹下输出结果文件。如果不使用该选项,意味着复制到默认目录“/user/root/”文件夹下,并产生“/test/goods/”目录,并在此目录之下输出结果文件prat-m-00000。
导入指定的列 --column
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test--username root --password 123 --table goods --columns ‘id, account, income, expenses‘
指定输出路径、指定数据分隔符
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods --target-dir ‘/sqoop‘ --fields-terminated-by ‘\t‘
指定Map数量 -m
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods --target-dir ‘/sqoop‘ --fields-terminated-by ‘\t‘ -m 2
增加where条件, (条件必须用引号引起来)
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods --where ‘id>3‘ --target-dir ‘/sqoop‘
增加query语句(使用 \ 将语句换行)
sqoop import --connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 \ --query ‘SELECT * FROM goods where id > 2 AND $CONDITIONS‘ --split-by goods.id --target-dir ‘/sqoop‘
注意:如果使用 --query 这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上,而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在 $CONDITIONS 前加上 \(转义符) 即 \$CONDITIONS 。如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上【表示不同的mapper任务,分割整体数据的依据,此处为good.id来分割数据。】
将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
sqoop export --connect jdbc:mysql://192.168.8.101:3306/itcast --username root --password 123 --export-dir ‘/td3‘ --table td_bak -m 1 --fields-terminated-by ‘,‘
sqoop import -connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods -m 1 --fields-terminated-by ‘\t‘ --target-dir ‘/sqoop‘ --append --check-column ‘goods_id‘ --incremental append --last-value 32 说明: --append //表示追加写入hdfs。没有此命令,则报目录已存在的错误 --check-column ‘goods_id’ //表示判断依据为”goods_id”这一列 --incremental append //如果有增量则追加写入操作 --last-value 32 //判断依据为上一次的”goods_id”的值 32
如果mysql中的数据确实有增加,使用上述命令则会产生一个新的文件,文件中保存增加的数据。
sqoop job --create myjob -- import -connect jdbc:mysql://192.168.8.100:3306/test --username root --password 123 --table goods -m 1 --fields-terminated-by ‘\t‘ --target-dir ‘/sqoop‘ --append --check-column ‘goods_id‘ --incremental append --last-value 32
此处要输入一次mysql用户root的密码,然后就可以自动执行job脚本了。
现在配置如何不用输入密码,直接执行job脚本:
在”/hadoop/sqoop-1.4.4/conf/sqoop-site-xml”文件中,打开是否允许保存密码的属性,即去掉圈中的部分。
这样还是不可以自动执行的,必须得先把原有的job删掉,然后重新创建一个新的job,才能满足需求,然后就可以自动执行了。
sqoop导入导出的事务是以Mapper任务为单位。启动了4个Mapper任务,则就表示有4个事务。
sqoop import --connect jdbc:mysql://mysqlserver_IP/databaseName –table datatable --hbase-create-table --hbase-table hbase_tablename --column-family col_fam_name --hbase-row-key key_col_name 说明: --hbase-create-table //导出到hbase上,如果没有目标表,则创建新表 --hbase-table hbase_tablename //指出要保存到hbase上的表名字 --column-family col_fam_name //col_fam_name是除rowkey之外的所有列的列族名 --hbase-row-key key_col_name //key_col_name指出datatable中哪一列作为hbase新表的Row Key
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --m 1 --table $oralceTableName –columns $columns --hbase-create-table --hbase-table or1 --hbase-row-key STATE --column-family or1
标签:
原文地址:http://www.cnblogs.com/skyl/p/4739529.html