码迷,mamicode.com
首页 > 编程语言 > 详细

Python采集实例1

时间:2017-11-09 15:43:41      阅读:89      评论:0      收藏:0      [点我收藏+]

标签:表达式   ==   代码   handle   pos   方便   start   href   分解   

目标是把http://www.gg4493.cn/主页上所有数据爬取下来,获得每一篇新闻的名称、时间、来源以及正文。
接下来分解目标,一步一步地做。
步骤1:将主页上所有链接爬取出来,写到文件里。
python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。
复制代码代码如下:
def getHtml(url):
     page = urllib.urlopen(url)
     html = page.read()
     page.close()
     return html
我们都知道html链接的标签是“a”,链接的属性是“href”,也就是要获得html中所有tag=a,attrs=href 值。
查阅了资料,一开始我打算用HTMLParser,而且也写出来了。但是它有一个问题,就是遇到中文字符的时候无法处理。
复制代码代码如下:


 class parser(HTMLParser.HTMLParser):
     def handle_starttag(self, tag, attrs):
             if tag == ‘a‘:
             for attr, value in attrs:
                 if attr == ‘href‘:
                     print value


后来使用了SGMLParser,它就没有这个问题。
复制代码代码如下:


class URLParser(SGMLParser):       
        def reset(self):
                SGMLParser.reset(self)
                self.urls = []
 
        def start_a(self,attrs):        
                href = [v for k,v in attrs if k==‘href‘]          
                if href:
                        self.urls.extend(href)
SGMLParser针对某个标签都需要重载它的函数,这里是把所有的链接放到该类的urls里。
复制代码代码如下:


lParser = URLParser()#分析器来的
socket = urllib.urlopen("http://www.gg4493.cn/")#打开这个网页
fout = file(‘urls.txt‘, ‘w‘)#要把链接写到这个文件里
lParser.feed(socket.read())#分析啦
reg = ‘http://www.gg4493.cn/.*‘#这个是用来匹配符合条件的链接,使用正则表达式匹配
pattern = re.compile(reg)
for url in lParser.urls:#链接都存在urls里
    if pattern.match(url):
        fout.write(url+‘\n‘)
fout.close()

 

Python采集实例1

标签:表达式   ==   代码   handle   pos   方便   start   href   分解   

原文地址:http://www.cnblogs.com/yangjiyue/p/7809640.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!