码迷,mamicode.com
首页 > 其他好文 > 详细

海量数据处理

时间:2014-09-26 01:44:28      阅读:297      评论:0      收藏:0      [点我收藏+]

标签:style   http   io   使用   ar   文件   数据   sp   问题   

 

 

因为set/map/multiset/multimap都是基于RB-tree之上,所以有自动排序功能,而hash_set/hash_map/hash_multiset/hash_multimap都是基于hashtable之上,所以不含有自动排序功能,至于加个前缀multi_无非就是允许键值重复而已。

 

set的元素不像map那样可以同时拥有实值(value)和键值(key)set元素的键值就是实值,实值就是键值,而map的所有元素都是pair,同时拥有实值(value)和键值(key)pair的第一个元素被视为键值,第二个元素被视为实值。

 

1. 给定ab两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出ab文件共同的url

 

    方案1:可以估计每个文件安的大小为50G50*10^8)×64=(320*10^9)320G,远远大于内存限制的4G。所以不可能将其完全加载到内存中处理。考虑采取分而治之的方法。

 

遍历文件a,对每个url求取,然后根据所取得的值将url分别存储到1000个小文件(这里是将字符串映射到指定的文件中,因此相同的字符串一定在相同的文件中)中。这样每个小文件的大约为300M

遍历文件b,采取和a相同的方式将url分别存储到1000小文件中(记为)。这样处理后,所有可能相同的url都在对应的小文件()中,不对应的小文件不可能有相同的url。然后我们只要求出1000对小文件中相同的url即可。

求每对小文件中相同的url时,可以把其中一个小文件的url存储到hash_set中。然后遍历另一个小文件的每个url,看其是否在刚才构建的hash_set中,如果是,那么就是共同的url,存到文件里面就可以了。

 

    读者反馈@crowgns

 

hash后要判断每个文件大小,如果hash分的不均衡有文件较大,还应继续hash分文件,换个hash算法第二次再分较大的文件,一直分到没有较大的文件为止。这样文件标号可以用A1-2表示(第一次hash编号为1,文件较大所以参加第二次hash,编号为2

 

 

百度面试题:

    搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。

假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。),请你统计最热门的10个查询串,要求使用的内存不能超过1G

 

第一步:Query统计

    Query统计有以下俩个方法,可供选择:

    1、直接排序法(根据什么排序呢?我认为有问题)

    首先我们最先想到的的算法就是排序了,首先对这个日志里面的所有Query都进行排序,然后再遍历排好序的Query,统计每个Query出现的次数了。

 

    但是题目中有明确要求,那就是内存不能超过1G,一千万条记录,每条记录是255Byte,很显然要占据2.375G内存,这个条件就不满足要求了。

 

    让我们回忆一下数据结构课程上的内容,当数据量比较大而且内存无法装下的时候,我们可以采用外排序的方法来进行排序,这里我们可以采用归并排序,因为归并排序有一个比较好的时间复杂度O(NlgN)

 

    排完序之后我们再对已经有序的Query文件进行遍历,统计每个Query出现的次数,再次写入文件中。

 

    综合分析一下,排序的时间复杂度是O(NlgN),而遍历的时间复杂度是O(N),因此该算法的总体时间复杂度就是O(N+NlgN)=ONlgN)。

 

    2Hash TableHASH作用还是为了统计

    在第1个方法中,我们采用了排序的办法来统计每个Query出现的次数,时间复杂度是NlgN,那么能不能有更好的方法来存储,而时间复杂度更低呢?

 

    题目中说明了,虽然有一千万个Query,但是由于重复度比较高,因此事实上只有300万的Query,每个Query255Byte,因此我们可以考虑把他们都放进内存中去,而现在只是需要一个合适的数据结构,在这里,Hash Table绝对是我们优先的选择,因为Hash Table的查询速度非常的快,几乎是O(1)的时间复杂度。

 

    那么,我们的算法就有了:维护一个KeyQuery字串,Value为该Query出现次数的HashTable,每次读取一个Query,如果该字串不在Table中,那么加入该字串,并且将Value值设为1;如果该字串在Table中,那么将该字串的计数加一即可。最终我们在O(N)的时间复杂度内完成了对该海量数据的处理。

 

    本方法相比算法1:在时间复杂度上提高了一个数量级,为ON),但不仅仅是时间复杂度上的优化,该方法只需要IO数据文件一次,而算法1IO次数较多的,因此该算法2比算法1在工程上有更好的可操作性。

 

 

第二步:找出Top 10

    算法一:普通排序

    我想对于排序算法大家都已经不陌生了,这里不在赘述,我们要注意的是排序算法的时间复杂度是NlgN,在本题目中,三百万条记录,用1G内存是可以存下的。

 

    算法二:部分排序

    题目要求是求出Top 10,因此我们没有必要对所有的Query都进行排序,我们只需要维护一个10个大小的数组,初始化放入10Query,按照每个Query的统计次数由大到小排序,然后遍历这300万条记录,每读一条记录就和数组最后一个Query对比,如果小于这个Query,那么继续遍历,否则,将数组中最后一条数据淘汰,加入当前的Query。最后当所有的数据都遍历完毕之后,那么这个数组中的10Query便是我们要找的Top10了。

 

    不难分析出,这样,算法的最坏时间复杂度是N*K, 其中K是指top多少。

 

    算法三:堆

    在算法二中,我们已经将时间复杂度由NlogN优化到NK,不得不说这是一个比较大的改进了,可是有没有更好的办法呢?

 

    分析一下,在算法二中,每次比较完成之后,需要的操作复杂度都是K,因为要把元素插入到一个线性表之中,而且采用的是顺序比较。这里我们注意一下,该数组是有序的,一次我们每次查找的时候可以采用二分的方法查找,这样操作的复杂度就降到了logK,可是,随之而来的问题就是数据移动,因为移动数据次数增多了。不过,这个算法还是比算法二有了改进。

 

    基于以上的分析,我们想想,有没有一种既能快速查找,又能快速移动元素的数据结构呢?回答是肯定的,那就是堆。

    借助堆结构,我们可以在log量级的时间内查找和调整/移动。因此到这里,我们的算法可以改进为这样,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进行对比。

 

    具体过程是,堆顶存放的是整个堆中最小的数,现在遍历N个数,把最先遍历到的k个数存放到最小堆中,并假设它们就是我们要找的最大的k个数,X1>X2...Xmin(堆顶),而后遍历后续的N-K个数,一一与堆顶元素进行比较,如果遍历到的Xi大于堆顶元素Xmin,则把Xi放入堆中,而后更新整个堆,更新的时间复杂度为logK,如果Xi<Xmin,则不更新堆,整个过程的复杂度为O(K)+O(N-K*logK)=ON*logK)。

 

(堆排序的3D动画演示可以参看此链接:http://www.benfrederickson.com/2013/10/10/heap-visualization.html

 

    思想与上述算法二一致,只是算法在算法三,我们采用了最小堆这种数据结构代替数组,把查找目标元素的时间复杂度有OK)降到了OlogK)。

    那么这样,采用堆数据结构,算法三,最终的时间复杂度就降到了NlogK,和算法二相比,又有了比较大的改进。

 

 

总结:

    至此,算法就完全结束了,经过上述第一步、先用Hash表统计每个Query出现的次数,ON);然后第二步、采用堆数据结构找出Top 10N*OlogK)。所以,我们最终的时间复杂度是:ON) + N‘*OlogK)。(N1000万,N’为300万)。如果各位有什么更好的算法,欢迎留言评论。

 

 

2. 10个文件,每个文件1G,每个文件的每一行存放的都是用户的query,每个文件的query都可能重复。要求你按照query的频度排序。

 

方案1

 

顺序读取10个文件,按照hash(query)%10的结果将query写入到另外10个文件(记为)中。这样新生成的文件每个的大小大约也1G(假设hash函数是随机的)。

找一台内存在2G左右的机器,依次对用hash_map(query, query_count)来统计每个query出现的次数。利用快速//归并排序按照出现次数进行排序。将排序好的query和对应的query_cout输出到文件中。这样得到了10个排好序的文件(,此处有误,更正为b0,b1,b2,b9)。

对这10个文件进行归并排序(内排序与外排序相结合)。

方案2

 

    一般query的总量是有限的,只是重复的次数比较多而已,可能对于所有的query,一次性就可以加入到内存了。这样,我们就可以采用trie/hash_map等直接来统计每个query出现的次数,然后按出现次数做快速//归并排序就可以了

 

    (读者反馈@店小二:原文第二个例子中:“找一台内存在2G左右的机器,依次对用hash_map(query, query_count)来统计每个query出现的次数。”由于query会重复,作为key的话,应该使用hash_multimap hash_map 不允许key重复。@hywangw:店小二所述的肯定是错的,hash_map(query,query_count)是用来统计每个query的出现次数 又不是存储他们的值 出现一次 把count+1 就行了 用multimap干什么?多谢hywangw)。

 

方案3

 

    与方案1类似,但在做完hash,分成多个文件后,可以交给多个文件来处理,采用分布式的架构来处理(比如MapReduce),最后再进行合并。

 

3. 有一个1G大小的一个文件,里面每一行是一个词,词的大小不超过16字节,内存限制大小是1M。返回频数最高的100个词。 本题关键在于内存不够用,所以先用HASH分成小文件以后,再读入内存。由此可以看到HASH既可以用来统计(比如hashmap,当然字典树也可以)也可以用来分块、分治。

 

按照词HASHstring%10到固定的文件,这样相同的单词在同一个小文件,如此便可直接统计一个单词的次数。

 

 

5. 2.5亿个整数中找出不重复的整数,内存不足以容纳这2.5亿个整数。

 

    方案1:采用2-Bitmap(每个数分配2bit00表示不存在,01表示出现一次,10表示多次,11无意义)进行,共需内存2^32*2bit=1GB内存,还可以接受。然后扫描这2.5亿个整数,查看Bitmap中相对应位,如果是0001011010保持不变。所描完事后,查看bitmap,把对应位是01的整数输出即可。

 

 

6. 海量数据分布在100台电脑中,想个办法高效统计出这批数据的TOP10

这里不是统计出现频率,而是求出最大的数,因此不需要统计的步骤

方案1

 

在每台电脑上求出TOP10,可以采用包含10个元素的堆完成(TOP10小,用最大堆,TOP10大,用最小堆)。比如求TOP10大,我们首先取前10个元素调整成最小堆,如果发现,然后扫描后面的数据,并与堆顶元素比较,如果比堆顶元素大,那么用该元素替换堆顶,然后再调整为最小堆。最后堆中的元素就是TOP10大。

求出每台电脑上的TOP10后,然后把这100台电脑上的TOP10组合起来,共1000个数据,再利用上面类似的方法求出TOP10就可以了。

 

 

10. 一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前10个词,请给出思想,给出时间复杂度分析。

 

    方案1:这题是考虑时间效率。用trie树统计每个词出现的次数,时间复杂度是O(n*le)le表示单词的平准长度)。然后是找出出现最频繁的前10个词,可以用堆来实现,前面的题中已经讲到了,时间复杂度是O(n*lg10)。所以总的时间复杂度,是O(n*le)O(n*lg10)中较大的哪一个。

 

 

 

 

14. 一共有N个机器,每个机器上有N个数。每个机器最多存O(N)个数并对它们操作。如何找到N^2个数中的中数?

 

    方案1:先大体估计一下这些数的范围,比如这里假设这些数都是32位无符号整数(共有2^32个)。我们把02^32-1的整数划分为N个范围段,每个段包含(2^32/N个整数。比如,第一个段位02^32/N-1,第二段为(2^32/N到(2^32/N-1,…,第N个段为(2^32)(N-1/N2^32-1。然后,扫描每个机器上的N个数,把属于第一个区段的数放到第一个机器上,属于第二个区段的数放到第二个机器上,…,属于第N个区段的数放到第N个机器上。注意这个过程每个机器上存储的数应该是O(N)的。下面我们依次统计每个机器上数的个数,一次累加,直到找到第k个机器,在该机器上累加的数大于或等于(N^2/2,而在第k-1个机器上的累加数小于(N^2/2,并把这个数记为x。那么我们要找的中位数在第k个机器中,排在第(N^2/2-x位。然后我们对第k个机器的数排序,并找出第(N^2/2-x个数,即为所求的中位数的复杂度是ON^2)的。

 

    方案2:先对每台机器上的数进行排序。排好序后,我们采用归并排序的思想,将这N个机器上的数归并起来得到最终的排序。找到第(N^2/2个便是所求。复杂度是ON^2*lgN^2)的。

 

 

 

16. 将多个集合合并成没有交集的集合

 

    给定一个字符串的集合,格式如:(aaa,bbb,ccc)(bbb,ddd)(eee,fff)(ggg)(ddd,hhh)。要求将其中交集不为空的集合合并,要求合并完成的集合之间无交集,例如上例应输出。(eee,fff)(ggg)(aaa,bbb,ccc,ddd,hhh)

 

(1) 请描述你解决这个问题的思路;

 

(2) 给出主要的处理流程,算法,以及算法的复杂度;

 

(3) 请描述可能的改进。

 

    方案1:采用并查集。首先所有的字符串都在单独的并查集中。然后依扫描每个集合,顺序合并将两个相邻元素合并。例如,对于,首先查看aaabbb是否在同一个并查集中,如果不在,那么把它们所在的并查集合并,然后再看bbbccc是否在同一个并查集中,如果不在,那么也把它们所在的并查集合并。接下来再扫描其他的集合,当所有的集合都扫描完了,并查集代表的集合便是所求。复杂度应该是O(NlgN)的。改进的话,首先可以记录每个节点的根结点,改进查询。合并的时候,可以把大的和小的进行合,这样也减少复杂度。

海量数据处理

标签:style   http   io   使用   ar   文件   数据   sp   问题   

原文地址:http://www.cnblogs.com/notlate/p/3993898.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!