标签:des style http color 使用 os io 文件
>> 第一种情况是叶子节点必须按顺序回放。因为UBIFS使用一种多头日志(multiheaded journal),写入叶子节点的顺序不是简单的跟log中涉及到的芽擦除块的顺序一致。为了给叶子节点排序,每个节点包含了一个64bit的序列号,该号在文件系统活动时会增加。回放把日志中的所有叶子节点都读出来,然后把他们放到一个红黑树中,这个红黑树是按照序列号存储的。之后会按顺序地处理红黑树,并实际情况更新内存中的索引。
>> 第二个复杂情况就是回放必须管理删除和截断。有两种删除。Inode节点删除相当于删除文件和目录,以及目录项删除即删除连接和重命名。在UBIFS中,inodes有一个一致的inode节点,inode节点记录了目录项连接号,更多地简单认为是连接数目。当一个inode被删除,一个连接数目为0的inode节点被写入到日志中。在这种复杂情况下,不是将那个叶子节点添加到索引中,而是根据inode号沿着所有索引项,将它移除。如果删除目录项,一个目录项的节点被写到日志中,但是先前目录项涉及到的inode号被设为0。注意目录项中有两个inode号。一个是其父目录项的号,一个是其文件或子目录项的号。删除目录项是后者被设置为0。当回放处理一个inode号为0的目录项时,它会直接将那个目录项从索引中移除而不是添加。
截断即是改变文件的大小。事实上,截断既可以延长文件的长度又可以缩短文件的长度。对于UBIFS,延长文件的长度不需要特殊的控制。
用文件系统的说法,通过截断延长文件的长度会创建一个hole,这个hole在文件中是不能被写入的,而且是全0位。UBIFS不索引holes,也不存储任何对应于holes的节点。代替一个hole是不在那的索引项。当UBIFS寻找index,发现没有索引项,那么它将定义为hole,并创建0数据。另外一方面,缩短文件长度的截断需要将多余的节点从索引中移除。为了这种情况发生,截断节点被写到日志中,截断节点记录着老的和新的文件长度。回放通过删除相关的索引项处理这些节点。
>> 第三个复杂情况是回放必须更新LPT区(LEB properties tree 逻辑擦除块属性树)。LEB 属性是在主存储区中对于所有LEB都要知道三个值。这些值分别是:空闲空间,脏空间以及该擦除块是否是索引擦除块。注意索引节点和非索引节点永远不在同一块擦除块中,因此一个索引擦除块是一个只包含索引节点的擦除块,一个非索引擦除块也只包含非索引节点。空闲空间是指该擦除块的结尾还没被写还可以填充更多的节点的区域的字节数。脏空间是指废弃节点和填充的字节数,它们都是潜在可以被垃圾回收的。对于查找空闲空间用作日志或者索引,以及查找最脏的擦除块做垃圾回收,LEB属性是必要的。每写入一个节点,就会减少那个擦除块的空闲空间。每当废弃一个节点或者填充节点以及截断(或删除)节点时,那个擦除块的脏空间都需要增加。当一个擦除块被申请为索引擦除块,那必须要记录一下。例如,一个有空闲空间的索引擦除块就不会被申请用作日志,因为那样它将会导致索引和非索引节点混合在一个擦除块。后面预算章节将会进一步讲述索引节点和非索引节点不能混合的理由。
一般来说,索引子系统自己负责将其LEB属性改变通知LEB属性子系统。当一个回收过的擦除块被添加到日志后在回放时LEB 属性的复杂度会增加。像索引一样,LPT区域只在提交时才被更新。和索引一样,存在flash上的LPT在挂载时已经过时,必须通过回放处理进行更新。所以flash上的 LEB 属性反映的是最后一次提交时的状态。回放将开始更新LEB属性,虽然有的改变发生在垃圾回收之前有的在垃圾回收之后。
根据垃圾回收点的不同,最终的LEB 属性的值将会是不同的。为了控制这个,回收插入一个引用到它的红黑树去描绘LEB添加到日志时候的点(使用log引用节点序列号)。当回放红黑树被应用到索引中时回放能正确地调整LEB 属性值。
>> 第四个复杂情况是回放时恢复的效果。UBIFS在主节点记录这文件系统是否被成功地卸载。如果是不干净的卸载(unclean unmount),一定的错误条件会触发文件系统的恢复。回放被两种情况影响。第一,一个芽擦除块正在写的时候被不干净地卸载了,它可能损坏。第二,同样,log擦除块可能在写的时候被不干净地卸载导致被损坏。回放会通过恢复这个擦除块试图修复其中的节点来处理这些情况。如果文件系统被挂载成可读写,那么恢复将做一些必要的修复。在这种情况下,被恢复的UBIFS文件系统的完整性和没有遭遇过不干净卸载一样的完美。如果文件系统被挂载成只读,恢复将一直等到文件系统被挂载成可读写才做恢复。
>> 最后一个复杂情况是索引中引用的相关的叶子节点可能已经不存在了。这个发生在当节点被删除而且它所在的擦除块随后被垃圾回收处理了。一般来说,已删除的叶子节点不会影响回放,因为它们不是索引的一部分。但是,索引结构一方面有时候更新索引时会读叶子节点。在UBIFS中,一个目录由一个inode节点和一个目录项组成。可以使用一个节点密钥(key)获得索引,密钥是一个64-bit的值来识别节点。在大多数情况下,这个节点密钥可以用来唯一确认这个节点,所以索引更新用的就是密钥。不幸的是,目录项的指定信息是名字,它是一个很长的字符(在ubifs中达到255个字符)。为了将该信息挤到64-bit中,它的名字被hash到一个29-bit的值中,这个对于名字不是唯一地。当两个名字给出来相同的hash值,这叫哈希冲突(hash collision)。在这种情况下,叶子节点必须被读出来,通过比较存储在叶子节点中的名字来解决冲突。如果因为上述原因,叶子节点丢失将会发生什么?实际上这个不会太糟糕。目录项节点只会被添加和删除,它们永远不会被代替因为他们包含的信息永远不改变。当增加一个hash 密钥节点,将不会有匹配。当移除一个hash密钥节点,通常会有一个匹配可能是已经存在的节点或者对一个有正确key丢掉的节点。为了提供更新这个特殊的索引用于回放,需要使用一个独立设置的功能(表示在代码的前缀“犯错”)。
UBIFS的一个主要任务是读取索引,索引是一个游离树。为了使其更有效率,索引节点被缓存在内存中一个叫TNC(tree node cache,树节点缓存)的结构里。TNC是一个B+树,和flash上的索引相同的节点的节点。TNC的节点称为znodes。另外一种看法是一个znode在flash上称为一个索引节点,而一个索引节点在内存中称为一个znode。初始化时是没有znodes的。当在索引上搜寻时,需要读索引节点,并将他们当作znodes添加到TNC。当一个znode需要改变,就在内存中将其标记为脏直到下一次提交它又再一次标记为干净。在任何时候,UBIFS内存收缩机制(shrinker)可能决定释放TNC中的干净的znodes,以至于需要的内存和在使用的索引大小相称,注意是索引的全部大小。另外,TNC的底部是一个LNC(leaf node cache,叶子节点缓存),它只用来存目录项的。碰撞解决或是读目录操作的节点需要用LNC缓存。因为LNC依附于TNC,当TNC收缩时LNC也会收缩。
想要使得提交和UBIFS的其他操作产生尽可能少的冲突使得TNC更加复杂。为了达到这个目标,提交被分成两个主要部分。第一个部分叫提交开始(commit start)。在提交开始期间,提交信号量down,防止这期间对日志的更新。在这期间,TNC子系统产生很多脏的znodes并找到他们将被写入flash的位置。然后释放提交信号量,一个新的日志开始被使用,而此时提交过程仍在继续。
第二部分叫提交结束(commit end)。在提交结束期间,TNC写新的索引节点而且是不使用任何锁(即类似前面的信号量)。也就是说TNC可以更新并且同时新的index可以被写到flash中。这是通过标记znodes完成的,称为写入时拷贝(copy-on-write)。如果一个znode提交时需要被修改,那么将拷贝一份,以至于提交看到的仍然是没改变的znode。另外,提交是UBIFS的后台线程运行的,这样用户进程对于提交的只需等待很少的时间。
接下来LPT和TNC采用了相同的提交策略,他们都是使用B+树实现的游离树,从而导致了代码方面很多的相似性。
UBIFS和JFFS2之间有三个重要的不同点。第一个已经提到过了:UBIFS有存储在flash上的索引而JFFS2没有(JFFS2的索引在内存中),所以UBIFS有可扩展性。第二个不同点是暗含的:UBIFS运行在UBI层,而UBI层运行在MTD层之上,而JFFS2直接运行在MTD层上。UBIFS得益于UBI的损益平衡和错误管理,这些占用的flash空间、内存和其它资源都是由UBI分配。第三个重要的不同点是UBIFS允许回写(writeback).
回写是VFS的一个特征,它允许写data到缓存中而不是立即写到介质中。这使系统响应潜在地更有效率,因为对同一个文件的更新可以组合在一起。回写的困难之处是要求文件系统知道有多少空闲空间是有效的以至于缓存不要大于介质的空闲空间。对于UBIFS,这点是非常困难的,所以有个称为预算(budgeting)的子系统专门做这个工作。困难有好几个理由:
>> 第一个理由就是UBIFS支持透明的压缩。因为我们提前不知道压缩的数量,也不知道的需要的空间数量。预算必须假设最糟的情况---假设没有压缩。无论怎么样,多数情况下是一个不好的假设。为了克服这个,当察觉到空间不足时预算开始强制回写。
>> 第二个理由是垃圾回收不能保证回首所有的脏空间。UBIFS垃圾回收一次处理一个擦除块。如果是NAND flash,一次只能写一个完整的NAND页。一个NAND 擦除块由固定数量的nand页组成。UBIFS称nand页大小为最小的I/O单元。因为UBIFS一次处理一个擦除块,如果脏空间少于最小的I/O大小,它是不能被回收的,它将作为填充在一个NAND页的结尾。当一个擦除块的脏空间少于最小I/O大小,那个空间称为死区(dead space)。死区是不可回收的。
类似于死区,还有一种暗区(dark space)。暗区是一个擦除块的脏空间小于最大节点大小。最坏的情况,文件系统满是最大大小的节点,垃圾回收在多片空闲空间将没有结果。所以在最坏的情况下,暗区是不可回收的。在最好的情况下,它是可以回收的。UBIFS预算必须假设最坏的情况,所以死区和暗区都被假设为无效的。无论如何,如果没有充足的空间,但是有很多暗区,预算自身会运行垃圾回收看是否能释放更多的空间。
>> 第三个理由是缓存的数据可能是存储在flash上的废弃数据。是否是这种情况通常是不知道的,压缩中有什么不同点一般也是不知道的。这也是当预算计算不充足空间时强制回写的另一个原因。只有试着回写、垃圾回收和提交日志后,预算将放弃并返回ENOSPC(没有空间错误码)。
当然,那就意味着当文件系统接近满时,UBIFS将变得效率很低。实际上,所有falsh文件系统都是这样。这是因为有一个空擦除块在背后已经已擦除是不太可能的,更可能是垃圾收集的运行。
>> 第四个理由是删除和截断需要写新节点。所以如果文件系统真的没空间了,它将不可能删除任何东西,因为已经没有空间来写删除节点的节点或者截断节点了。为了防止这种情况,UBIFS经常保留一些空间,允许删除和截断。
下一个UBIFS区是孤儿区(orphan area)。一个孤儿是一个节点数,计算的是一些已经被提交到索引的索引节点,它们的链接数为0。这个发生在当一个打开的文件被删除(解除链接),然后执行了提交。正常情况下,该索引应该在文件被关闭的时候被删除。然而,在不干净的卸载的情况下,孤儿需要被考虑到。不干净卸载后,无论是搜寻整个index还是保持一个list在flash的某处,孤儿节点必须被删除,UBIFS实现的是后者的方案。
孤儿区是有固定数量的LEBs,位于LPT区域和主存储区之间。孤儿区LEBs的数量当文件系统创建时指定。最小数量是1。
孤儿区的大小需要可以处理在同一时间预期的最大的孤儿数。孤儿区的大小可以适应在一个LEB中:
(leb_size-32)/8
例如,一个15872字节的LEB可以适应1980个orphans,所以一个LEB已经足够了。
孤儿被累积在一个红黑树中。当inode节点的link数变为0,这个inode号被添加到这个红黑树。当inode被删除,它将从tree中移除。当提交运行时,任何孤儿树中新孤儿被写到孤儿区,写到1个或者更多的节点。如果orphan区已满,空间将被扩大。通常会有总是有足够的空间,因为验证可以防止用户创造超过所允许的最大孤儿数。
最后一个UBIFS区是主存储区(main area)。主存储区包含组成文件系统的数据和索引节点。一个主存储区 LEB可能是一个索引擦除块或者是一个非索引擦除块。一个非索引擦除块可能是一个芽或者已经被提交。一个芽可能是当前日志头中的一个。一个包含提交过的节点的LEB如果还有空闲空间它仍然可以成为一个芽。因此一个芽LEB从日志开始的地方有一个偏移,尽管偏移通常为0。
更多学习参考:
[1] https://zh.wikipedia.org/wiki/UBIFS
[2] http://lwn.net/Articles/290057/
[3] http://lwn.net/Articles/276025/
[4] http://www.linux-mtd.infradead.org/faq/ubifs.html
[5] http://www.linux-mtd.infradead.org/doc/ubifs.html
标签:des style http color 使用 os io 文件
原文地址:http://www.cnblogs.com/dawulong/p/3884250.html