码迷,mamicode.com
首页 > 其他好文 > 详细

爬虫-抓取页面内容

时间:2016-04-11 11:46:48      阅读:110      评论:0      收藏:0      [点我收藏+]

标签:

 

# -*- coding: UTF-8 -*-
from HTMLParser import HTMLParser
import sys,urllib2,string,re,json

reload(sys)
sys.setdefaultencoding(utf-8)

class hp(HTMLParser):

    def __init__(self):
        self.readingdata_a = False
        self.title = []
        self.usite = []
        HTMLParser.__init__(self)
    
    def handle_starttag(self,tag,attrs):
        #print tag
        if tag == a:for h,v in attrs:
                if v == entrylistItemTitle:
                    self.readingdata_a = True
                    self.usite.append(attrs[2][1])

    def handle_data(self,data):
        if self.readingdata_a:
            self.title.append(data)

    def handle_endtag(self,tag):
        if tag == a:
            self.readingdata_a = False

    def getdata(self):
        #return zip(self.title,self.usite) 通过zip函数将其一对一合并为tuple

        i=0
        listr = []
        while i<len(self.title):
            listr.append(self.title[i] + : +self.usite[i])
            i=i+1
        return listr


url=http://www.cnblogs.com/dreamer-fish/archive/2016/03.html
request = urllib2.Request(url)
response = urllib2.urlopen(request).read()

yk=hp()
yk.feed(response)
dd = yk.getdata()


for i in dd:
    print i

yk.close

 结果:

技术分享

爬虫-抓取页面内容

标签:

原文地址:http://www.cnblogs.com/dreamer-fish/p/5377438.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!