1)、----进入到hbase及常用的使用:
冒烟环境 133.37.31.157
su - mr
/home/mr/hbase/bin/hbase shell
show list
scan ‘dm_single_user_im_d‘ limit 10
-----现网 133.37.23.234有hbase
---# 语法:count <table>, {INTERVAL => intervalNum, CACHE => cacheNum}
---# INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度
---# 例如,查询表t1中的行数,每100条显示一次,缓存区为500
---# hbase(main)> count ‘t1‘, {INTERVAL => 100, CACHE => 500}
hbase(main)> count ‘dm_single_user_im_d‘, {INTERVAL => 1000000, CACHE => 5000}
----hbase查数据:
import org.apache.hadoop.hbase.filter.RowFilter
import org.apache.hadoop.hbase.filter.SubstringComparator
import org.apache.hadoop.hbase.filter.CompareFilter
scan "dm_single_user_im_d",{COLUMNS=>"cf:qf",LIMIT=>10,FILTER=> RowFilter.new(CompareFilter::CompareOp::EQUAL,SubstringComparator.new("2016-05-20"))}
scan "dm_single_user_im_d",{COLUMNS=>"cf:qf",LIMIT=>10,FILTER => "RowFilter(=, ‘substring:2016-04-28‘)"}
------查看数据的10行
scan ‘dm_single_user_exception_num_d‘,{COLUMNS=>"cf:qf",LIMIT=>10}
-----查看数据10行
scan ‘dm_single_user_exception_num_d‘,{COLUMNS=>"cf:qf",LIMIT=>10,FILTER => "RowFilter(=, ‘substring:2017-09-25‘)"}
-----hbase 删除整张表的数据
truncate ‘dm_single_user_exception_num_d‘
-----同一个hbase任务,第二次执行不会覆盖掉第一次的数据,rowkey里好像有时间