码迷,mamicode.com
首页 > 其他好文 > 详细

分治法+Hash处理海量日志数据

时间:2015-03-20 18:09:20      阅读:95      评论:0      收藏:0      [点我收藏+]

标签:

海量日志数据,提取出某日访问百度次数最多的那个IP。
   首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有个2^32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。

算法思想:分而治之+Hash
1.IP地址最多有2^32=4G种取值情况,所以不能完全加载到内存中处理; 
2.可以考虑采用“分而治之”的思想,按照IP地址的Hash(IP)%1024值,把海量IP日志分别存储到1024个小文件中。这样,每个小文件最多包含4MB个IP地址; 
3.对于每一个小文件,可以构建一个IP为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个IP地址;
4.可以得到1024个小文件中的出现次数最多的IP,再依据常规的排序算法得到总体上出现次数最多的IP;

 

 如果不是这样,那么如果直接分成1024个文件,就可能会出现某一个IP在每一个子文件中都存在,但不是每一个文件中出现次数最多的,这样是否有可能造成结果不准确

分治法+Hash处理海量日志数据

标签:

原文地址:http://www.cnblogs.com/linnn/p/4353842.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!