标签:
爬虫抓取网页过程中,会产生很多的问题,当然最重要的一个问题就是重复问题,网页的重复抓取.最简单的方式就是对url去重.已经抓取过的url不再抓取.但是其实在实际业务中是需要对于已经抓取过的URL进行再次抓取的.例如 BBS .bbs存在大量的更新回复,但是url不会发生改变.
一般情况下的url去重方式,就是判断url是否抓取过,如果抓取过就不再抓取,或者是在一定时间内不再抓取..
我的需求也是这样的, 所以首先做的就是url去重. 在爬虫发现链接,加入待抓取队列的时候,会对url进行验证,是否抓取过,或者当前时间是否需要再次抓取该url. 如果在条件时间内抓取到的最终内容是否需要入库呢..?
因为业务问题:
1. DM 定时拿出数据库中的数据.
2. ETL需要定时拿出数据库中的数据.
但是他们都不会对数据进行判断是否之前已经做过处理. 所以也就会造成冗余,对于爬虫来说.每天抓取的数据至少百万级的,如果不进行去重判断,DM ETL 等其他所需数据的人员每天都要处理大量的已处理过数据.
很多人的处理方式都是 MD5 或者其他的一些加密方式. 甚至几种结合... 好吧,我就说说问题..
每次访问该网页都会增加次数,网站修改的内容仅仅为千分之一,一个字符... 但是对于md5来说,却是修改了整个世界..整个加密都改变了...
这是我记录的md5. 里面的内容为原文文章..文章修改的内容见上图..
经过测试.md5加密正文用于爬虫做去重判断.适用性很低...所以就修改了方案.
使用SimHash算法对于抓取数据加密.
import java.math.BigInteger; import java.util.ArrayList; import java.util.List; import java.util.StringTokenizer; public class SimHash { private String tokens; public BigInteger intSimHash; private String strSimHash; private int hashbits = 64; public SimHash(String tokens) { this.tokens = tokens; this.intSimHash = this.simHash(); } public SimHash(String tokens, int hashbits) { this.tokens = tokens; this.hashbits = hashbits; this.intSimHash = this.simHash(); } public BigInteger simHash() { // 定义特征向量/数组 int[] v = new int[this.hashbits]; // 修改为分词 StringTokenizer stringTokenizer = new StringTokenizer(tokens); while (stringTokenizer.hasMoreTokens()) { String temp = stringTokenizer.nextToken(); // temp BigInteger t = this.hash(temp); for (int i = 0; i < this.hashbits; i++) { BigInteger bitmask = new BigInteger("1").shiftLeft(i); if (t.and(bitmask).signum() != 0) { v[i] += 1; } else { v[i] -= 1; } } } BigInteger fingerprint = new BigInteger("0"); StringBuffer simHashBuffer = new StringBuffer(); for (int i = 0; i < this.hashbits; i++) { // 4、最后对数组进行判断,大于0的记为1,小于等于0的记为0,得到一个 64bit 的数字指纹/签名. if (v[i] >= 0) { fingerprint = fingerprint.add(new BigInteger("1").shiftLeft(i)); simHashBuffer.append("1"); } else { simHashBuffer.append("0"); } } this.strSimHash = simHashBuffer.toString(); return fingerprint; } @SuppressWarnings({ "rawtypes", "unused", "unchecked" }) public List subByDistance(SimHash simHash, int distance) { // 分成几组来检查 int numEach = this.hashbits / (distance + 1); List characters = new ArrayList(); StringBuffer buffer = new StringBuffer(); int k = 0; for (int i = 0; i < this.intSimHash.bitLength(); i++) { // 当且仅当设置了指定的位时,返回 true boolean sr = simHash.intSimHash.testBit(i); if (sr) { buffer.append("1"); } else { buffer.append("0"); } if ((i + 1) % numEach == 0) { // 将二进制转为BigInteger BigInteger eachValue = new BigInteger(buffer.toString(), 2); buffer.delete(0, buffer.length()); characters.add(eachValue); } } return characters; } public int getDistance(String str1, String str2) { int distance; if (str1.length() != str2.length()) { distance = -1; } else { distance = 0; for (int i = 0; i < str1.length(); i++) { if (str1.charAt(i) != str2.charAt(i)) { distance++; } } } return distance; } /** * 计算Hash * * @param source * @return */ private BigInteger hash(String source) { if (source == null || source.length() == 0) { return new BigInteger("0"); } else { char[] sourceArray = source.toCharArray(); BigInteger x = BigInteger.valueOf(((long) sourceArray[0]) << 7); BigInteger m = new BigInteger("1000003"); BigInteger mask = new BigInteger("2").pow(this.hashbits).subtract( new BigInteger("1")); for (char item : sourceArray) { BigInteger temp = BigInteger.valueOf((long) item); x = x.multiply(m).xor(temp).and(mask); } x = x.xor(new BigInteger(String.valueOf(source.length()))); if (x.equals(new BigInteger("-1"))) { x = new BigInteger("-2"); } return x; } } /** * 计算海明距离 * * @param other * @return */ public int hammingDistance(SimHash other) { BigInteger x = this.intSimHash.xor(other.intSimHash); int tot = 0; // 统计x中二进制位数为1的个数 // 我们想想,一个二进制数减去1,那么,从最后那个1(包括那个1)后面的数字全都反了,对吧,然后,n&(n-1)就相当于把后面的数字清0, // 我们看n能做多少次这样的操作就OK了。 while (x.signum() != 0) { tot += 1; x = x.and(x.subtract(new BigInteger("1"))); } return tot; } }
同样对于刚才的网站进行测试..
结果:
可以看出,对于网站进行简单的修改不会影响最终生成的hash值. 但是如果网站更新,会直接修改结果.适用于爬虫抓取去重更新. 所以建议使用该方式做去重方案
标签:
原文地址:http://my.oschina.net/CainGao/blog/490318