码迷,mamicode.com
首页 > 其他好文 > 详细

批量下载百度贴吧帖子图片

时间:2015-08-02 11:49:21      阅读:213      评论:0      收藏:0      [点我收藏+]

标签:python   爬虫   

总体功能:下载百度贴吧网页的图片


这个例子延续了上一个抓取贴吧楼主发布内容的例子,上一个例子是把图片剔除掉了,这边重新做了一个下载图片的demo,比较简单。



代码:

# -*- encoding:utf-8 -*-
# 下载贴吧的图片
import re
import urllib
import urllib2

#下载百度贴吧图片类
class DownloadImg:
    def getImage(self,Url):
        request = urllib2.Request(Url)
        response = urllib2.urlopen(request)

        pattern = re.compile(r'<img class="BDE_Image" src="(.*?)" pic_ext=',re.S)
        images = re.findall(pattern,response.read().decode("utf-8"))

        name = 1
        for img in images:
             print img
             #urlretrieve(url, filename=None, reporthook=None, data=None)
             #把远程的文件下载到本地
             urllib.urlretrieve(img,'%s.jpg' %name)
             name += 1

URL = raw_input(r'请输入帖子网址:')
dlImg = DownloadImg()
dlImg.getImage(URL)

结果截图(http://tieba.baidu.com/p/3926461641?pn=1):

技术分享

技术分享

版权声明:本文为博主原创文章,未经博主允许不得转载。

批量下载百度贴吧帖子图片

标签:python   爬虫   

原文地址:http://blog.csdn.net/andrewseu/article/details/47205527

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!