码迷,mamicode.com
首页 > 其他好文 > 详细

HBase(一)——HBase介绍

时间:2019-08-03 11:10:24      阅读:101      评论:0      收藏:0      [点我收藏+]

标签:abi   上线   事务处理   dfs   course   bigtable   产生   硬盘   ash   

HBase介绍

1、关系型数据库与非关系型数据库

(1)关系型数据库

技术图片

? 关系型数据库最典型的数据机构是表,由二维表及其之间的联系所组成的一个数据组织

? 优点:

? 1、易于维护:都是使用表结构,格式一致

? 2、使用方便:SQL语言通用,可用于复杂查询

? 3、复杂操作:支持SQL,可用于一个表以及多个表之间非常复杂的查询

? 缺点:

? 1、读写性能比较差,尤其是海量数据的高效率读写

? 2、固定的表结构,灵活度稍欠

? 3、高并发读写需求,传统关系型数据库,硬盘IO是一个很大的瓶颈

(2)非关系型数据库

技术图片

? 非关系型数据库严格上不是一种数据库,应该是一种数据结构化存储方法的集合,可以是文档或键值对

? 优点:

? 1、格式灵活:存储数据的格式可以是key,value形式、文档形式、图片形式等等,文档形式、图片 形式等等,使用灵活,应用场景广泛,而关系型数据库则只支持基础类型。

? 2、速度快:nosql可以使用硬盘或者随机存储器作为载体,而关系型数据库只能使用硬盘

? 3、高扩展性

? 4、成本低:nosql数据库部署简单,基本都是开源软件

? 缺点:

? 1、不提供sql支持,学习和使用成本较高;

? 2、无事务处理

? 3、数据结构相对复杂,复杂查询方面稍欠

2、HBase简介

    Use Apache HBase? when you need random, realtime read/write access to your Big Data. This project's goal is the hosting of very large tables -- billions of rows X millions of columns -- atop clusters of commodity hardware. Apache HBase is an open-source, distributed, versioned, non-relational database modeled after Google's Bigtable: A Distributed Storage System for Structured Data by Chang et al. Just as Bigtable leverages the distributed data storage provided by the Google File System, Apache HBase provides Bigtable-like capabilities on top of Hadoop and HDFS.

? HBase的全称是Hadoop Database,是一个高可靠性,高性能、面向列、可伸缩、实时读写的分布式数据库。

? 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务。

? 主要用来存储非结构化和半结构化数据的松散数据(列存NoSQL数据库)。

? 注意:NoSQL的全称是Not Only SQL,泛指非关系型数据库。

3、HBase数据模型

技术图片

(1)rowkey

? (1)决定一行数据,每行记录的唯一标识

? (2)按照字典序排序

? (3)RowKey只能存储64K的字节数据

(2)Column Family & Qualifier

? (1)HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’;

? (2)列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入;

? (3)权限控制、存储以及调优都是在列族层面进行的;

? (4)HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。

(3)TimeStamp时间戳

? (1)在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。

? (2)时间戳的类型是 64位整型。

? (3)时间戳可以由HBase(在数据写入时自动)赋值,此时间戳是精确到毫秒的当前系统时间。

? (4)时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。

(4)Cell

? (1)由行和列的坐标交叉决定;

? (2)单元格是有版本的;

? (3)单元格的内容是未解析的字节数组;

? 1、由{row key, column( = +), version} 唯一确定的单元。
? 2、cell中的数据是没有类型的,全部是字节数组形式存贮。

4、HBase架构

技术图片

角色介绍:

(1)Client

? 1、包含访问HBase的接口并维护cache来加快对HBase的访问。

(2)Zookeeper

? 1、保证任何时候,集群中只有一个活跃master

? 2、存储所有region的寻址入口

? 3、实时监控region server的上线和下线信息,并实时通知master

? 4、存储HBase的schema和table元数据

(3)Master

? 1、为region server分配region

? 2、负责region server的负载均衡

? 3、发现失效的region server并重新分配其上的region

? 4、管理用户对table的增删改操作

(4)RegionServer

? 1、region server维护region,处理对这些region的IO请求

? 2、region server负责切分在运行过程中变得过大的region

regionserver组件介绍

(1)region

? 1、HBase自动把表水平划分成多个区域(region),每个region会保存一个表里某段连续的数据

? 2、每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阈值的时候,region就会等分会两个新的region(裂变)

? 3、当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上。

(2)Memstore与storefile

? 1、一个region由多个store组成,一个store对应一个CF(列族)

? 2、store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile

? 3、当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major ),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile

? 4、当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡

? 5、客户端检索数据,先在memstore找,找不到去blockcache,找不到再找storefile

注意问题:

? 1、HRegion是HBase中分布式存储和负载均衡的最小单元。最小单元就表示不同的HRegion可以分布在不同的 HRegion server上。

? 2、HRegion由一个或者多个Store组成,每个store保存一个columns family。

? 3、每个Strore又由一个memStore和0至多个StoreFile组成。如图:StoreFile以HFile格式保存在HDFS上。

? 技术图片

5、HBase读写流程

(1)读流程

? 1、客户端从zookeeper中获取meta表所在的regionserver节点信息

? 2、客户端访问meta表所在的regionserver节点,获取到region所在的regionserver信息

? 3、客户端访问具体的region所在的regionserver,找到对应的region及store

? 4、首先从memstore中读取数据,如果读取到了那么直接将数据返回,如果没有,则去blockcache读取数据

? 5、如果blockcache中读取到数据,则直接返回数据给客户端,如果读取不到,则遍历storefile文件,查找数据

? 6、如果从storefile中读取不到数据,则返回客户端为空,如果读取到数据,那么需要将数据先缓存到blockcache中(方便下一次读取),然后再将数据返回给客户端。

? 7、blockcache是内存空间,如果缓存的数据比较多,满了之后会采用LRU策略,将比较老的数据进行删除。

(2)写流程

? 1、客户端从zookeeper中获取meta表所在的regionserver节点信息

? 2、客户端访问meta表所在的regionserver节点,获取到region所在的regionserver信息

? 3、客户端访问具体的region所在的regionserver,找到对应的region及store

? 4、开始写数据,写数据的时候会先想hlog中写一份数据(方便memstore中数据丢失后能够根据hlog恢复数据,向hlog中写数据的时候也是优先写入内存,后台会有一个线程定期异步刷写数据到hdfs,如果hlog的数据也写入失败,那么数据就会发生丢失)

? 5、hlog写数据完成之后,会先将数据写入到memstore,memstore默认大小是64M,当memstore满了之后会进行统一的溢写操作,将memstore中的数据持久化到hdfs中,

? 6、频繁的溢写会导致产生很多的小文件,因此会进行文件的合并,文件在合并的时候有两种方式,minor和major,minor表示小范围文件的合并,major表示将所有的storefile文件都合并成一个,具体详细的过程,后续会讲解。

HBase(一)——HBase介绍

标签:abi   上线   事务处理   dfs   course   bigtable   产生   硬盘   ash   

原文地址:https://www.cnblogs.com/littlepage/p/11293824.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!