码迷,mamicode.com
首页 >  
搜索关键字:数据块    ( 1175个结果
linux_文件系统及文件管理基础
文件系统:rootfs: 根文件系统FHS: Linux /boot: 系统启动相关文件,如内核、initrd,以及grub(bootloader) /dev: 设备文件 设备文件: 块设备: 随机访问,数据块 字符设备: 线性访问,按字符为单位 设备号: 主设备号(major)和次设备号(mi.....
分类:系统相关   时间:2016-01-03 20:51:07    阅读次数:234
名字节点和第二名字节点
名字节点(NameNode )是HDFS主从结构中主节点上运行的主要进程,它指导主从结构中的从节点,数据节点(DataNode)执行底层的I/O任务。 名字节点是HDFS的书记员,维护着整个文件系统的文件目录树,文件/目录的元信息和文件的数据块索引,即每个文件对应的数据块列表(后面的讨论中,上...
分类:其他好文   时间:2015-12-30 17:17:15    阅读次数:124
nodejs的某些api~(一)node的流2
可写流writablewritable.write(chunk, [encoding], [callback])chunk {String | Buffer} 要写入的数据encoding {String} 编码,假如 chunk 是一个字符串callback {Function} 数据块写入后的回...
分类:Windows程序   时间:2015-12-25 23:48:05    阅读次数:236
http chunked数据包分析
当要传给client的完整的数据大小无法确定时,http会使用Transfer-Encoding: chunked方式传递数据,即把数据进行分块传输。每块数据开始使用16进制方式表明数据块大小,最后使用0表示数据传输完毕。http第一个响应头之后的数据块都不再携带http头,只是纯数据。http响应...
分类:Web程序   时间:2015-12-25 19:26:52    阅读次数:187
Qt写的文件拆分和融合小工具
最近因事物需要,需要将大文件分解为几个小文件,然后就行传输,在接收端需要对接收到的小文件进行融合。因此用Qt写了这个小工具。现在奉献上这个小工具的代码和思路。我们知道任何文件在计算机上都是二进制数据块,因此只需要使用读写二进制的形式来读取大文件,在将读取的大文件以二进制形式写入小文件,这样就可以将文...
分类:其他好文   时间:2015-12-24 00:30:40    阅读次数:276
网络通信 --> 消息队列
消息队列 消息队列提供了一种从一个进程向另一个进程发送一个数据块的方法。 每个数据块都被认为含有一个类型,接收进程可以独立地接收含有不同类型的数据结构。可以通过发送消息来避免命名管道的同步和阻塞问题。但是消息队列与命名管道一样,每个数据块都有一个最大长度的限制。Linux用宏MSGMAX和MS...
分类:其他好文   时间:2015-12-21 18:22:24    阅读次数:194
API读取和处理的文件
1.FileList对象 FileList对象是File对象的一个集合,设置multiple就可以多文件上传。2.Blob对象Blob对象就是一个二进制原始数据对象,它提供了slice方法可以读取字节内部的原始数据块,他有两个属性:size type3.File对象 继承自Blob对象,指向一个具体...
分类:Windows程序   时间:2015-12-20 19:22:31    阅读次数:171
API 3个 js对象
1.FileList对象:他是File对象的一个集合2.Bold对象:提供了slice方法可以可以读取字节内的原始数据块,filelist.flie【1】file.size3.File对象:是File对象中的每一个4.FileReader接口:设计来吧数据读内存,并且读取文件中的数据,提供三个常用的...
分类:Windows程序   时间:2015-12-20 17:20:31    阅读次数:139
mysql数据误删除(drop)的恢复. (ext3grep, extundelete)
drop table tbl_name 物理删除。没有备份,没有二进制日志在系统删除文件并非在存储中抹去数据,而仅仅是标识对应的block块可以被重新的分配使用。所以数据的恢复还是有希望的。但是那些恢复的数据块不能被其他的数据有覆盖掉,文件系统本身也要正常1. 立即 stop mysql 2...
分类:数据库   时间:2015-12-20 13:16:07    阅读次数:198
MapReduce 运行机制
Hadoop 中的MapReduce是一个使用简单的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错式并行处理TB级别的数据集。 一个MapReduce作业(job)通常会把输入的数据集切分为若干独立的数据块,由Map任务以完成并行的方式处理它们。...
分类:其他好文   时间:2015-12-19 12:18:17    阅读次数:145
1175条   上一页 1 ... 69 70 71 72 73 ... 118 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!