码迷,mamicode.com
首页 >  
搜索关键字:数据块    ( 1175个结果
全扫描访问方法:(2)全扫描与舍弃
全扫描是否为高效的选择取决于需要访问的数据块个数以及最终的结果集行数。此外,全扫描是否高效的另一个关键因素是舍弃。所访问数据块数目以及舍弃的数量越大,全表扫描的成本也就越高。对全扫描访问方法(1)中的T2 j进行全扫描所需要的数据块数如下所示:SELECT t.table_name, t.num_r...
分类:其他好文   时间:2014-07-19 20:14:16    阅读次数:187
全扫描与高水位线
对扫描进行多块读取调用时,Oracle将最多读取到位于表中高水位线的数据块。高水位线标出了表中最后一块有数据写入的数据块。当数据行插入一张表中的时候,就会为其分配数据块并将数据行放到其中。如下图所示。在经过一系列操作之后,数据行被从表中删除。如下图为删除掉很多行之后的情景。即使几乎所有数据行都被删除...
分类:其他好文   时间:2014-07-18 16:17:26    阅读次数:223
消除行链接、行迁移
行迁移和行链接是经常接触到的一个概念。行链接是记录太大,一个数据块无法存储,oracle就会将其存储在相链接的块中,如果记录中数据类型包括:LONG、LONG RAW、LOB等数据类型时,行链接则无法避免了,可以在AWR实例活动统计部分的table fetch continued row分析可以看....
分类:其他好文   时间:2014-07-16 19:00:25    阅读次数:214
全扫描访问方法:(1)如何选择全扫描操作
一般来说,总共只有两种基本的数据访问途径:全扫描或者索引扫描。全扫描过程中,多个块被读入到一个IO运算中。索引扫描首先扫描索引叶子块以取得特定的行ID,然后利用这些行ID来访问父表取得实际的数据。全扫描访问方法:当对一个对象进行扫描时,与改对象相关的所有数据块都必须取出并进行处理,以确定块中所包含的...
分类:其他好文   时间:2014-07-16 09:49:26    阅读次数:318
跨进程边界共享内核对象
正在拜读《windows核心编程》,稍后总结。---------XiaoF先说说为何要实现此功能 1,利用文件映射对象,可以在同一电脑的不同进程之间共享数据块。 2,借助邮件槽和命名管道,在网络中的不同计算机上运行的进程相互发送消息。 3,互斥量。信号量。事件,允许不同进程中的线程做同步。如何实现,...
分类:其他好文   时间:2014-07-14 23:31:16    阅读次数:285
MySQL锁实现
§1. InnoDB行锁是通过给索引上的索引项加锁来实现的,这一点与Oracle不同,后者是通过在数据块中对相应数据行加锁来实现的。InnoDB这种行锁实现特点意味着:只有通过索引条件检索数据,InnoDB才使用行级锁,否则,InnoDB将使用表锁!§2.由于MySQL的行锁是针对索引加的锁,不是针...
分类:数据库   时间:2014-07-14 10:46:24    阅读次数:239
关于序列化:把某个对象序列化成字节流
在网络编程中,一个经常的操作是将本地的数据块转换成字符流并将其发送到远端,远端将这个字符串流恢复成数据库。假设有如下一个类CObject,编写两个函数,分别将CObject中的成员变量转换为一个字符流(convert2Stream()函数),并将字符流的数据重新恢复到一个CObject对象中(convert2Object()函数): char* convert2Stream(const CObj...
分类:其他好文   时间:2014-07-12 16:30:38    阅读次数:178
数据块的内容和参数
数据块由3部分组成:块头部分、空闲区、数据区。随着数据量的增加,块头部分从上而下占据空闲区而数据区从下而上占据空闲区。当两部分接触时数据块就满了。数据区:存储的是数据行,当插入数据时从下而上占据空闲区块头部分:存储数据块的地址、表目录、行目录和事务槽,事务槽是在事务修改数据行时使用。头部从上而下占据...
分类:其他好文   时间:2014-07-12 15:13:49    阅读次数:216
HBase学习笔记之HFile格式
主要看Roger的文档,这里作为文档的补充HFile的格式-HFile的基本结构Trailer通过指针找到Meta index、Data index、File info。Meta index保存每一个元数据在HFile中的位置、大小、元数据的key值。Data index保存每一个数据块在HFile...
分类:其他好文   时间:2014-07-12 08:26:39    阅读次数:606
HDFS详解
【一】HDFS简介 HDFS的基本概念1.1、数据块(block) HDFS(Hadoop Distributed File System)默认的最基本的存储单位是64M的数据块。 和普通文件系统相同的是,HDFS中的文件是被分成64M一块的数据块存储的。 不同于普通文件系统的是,HDFS中,如果一...
分类:其他好文   时间:2014-07-10 16:51:14    阅读次数:304
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!