码迷,mamicode.com
首页 > 其他好文 > 详细

海量数据处理--bloom filter

时间:2014-08-07 21:49:20      阅读:183      评论:0      收藏:0      [点我收藏+]

标签:blog   http   strong   文件   数据   art   ar   log   

例题:给定两个大文件,各含有50亿条url,要求利用4G内存快速找出共同的url

解答:

假设两个文件为A和B,4G内存有32G位,可以表示5G的url。

本文采用bloom filter解答:

首先简单介绍一下bloom filter的思想,其核心是:位数组;K个hash函数。

通过对大量数据处理,通过k个hash函数将大量数据压缩存储到多个位当中。

查找的时候,根据K个hash函数的结果,如果有0那么就不在集合中,如果没有0那么就在集合中(可能会误判)。

 

这道题可以先通过对A处理,然后得到bloom filter,再对B处理,判断是否重复url。由于通过位压缩,位数组可以存在内存里,

然后减少文件访问次数,能够加快速度。但是可能会存在误判。

 

参考下面链接:

http://blog.csdn.net/hguisu/article/details/7866173

海量数据处理--bloom filter,布布扣,bubuko.com

海量数据处理--bloom filter

标签:blog   http   strong   文件   数据   art   ar   log   

原文地址:http://www.cnblogs.com/cane/p/3897882.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!