码迷,mamicode.com
首页 > 编程语言 > 详细

python爬虫模块之HTML下载模块

时间:2018-06-12 21:39:39      阅读:465      评论:0      收藏:0      [点我收藏+]

标签:返回   elf   lease   sts   agent   def   ESS   header   timeout   

HTML下载模块

该模块主要是根据提供的url进行下载对应url的网页内容。使用模块requets-HTML,加入重试逻辑以及设定最大重试次数,同时限制访问时间,防止长时间未响应造成程序假死现象。

根据返回的状态码进行判断如果访问成功则返回源码,否则开始重试,如果出现异常也是进行重试操作。

from requests_html import HTMLSession
from fake_useragent import UserAgent
import requests
import time
import random
class Gethtml():
    def __init__(self,url="http://wwww.baidu.com"):
        self.ua = UserAgent()
        self.url=url
        self.session=HTMLSession(mock_browser=True)
        #关于headers有个默认的方法 self.headers = default_headers()
        #mock_browser 表示使用useragent
    def get_source(self,url,retry=1):
           if retry>3:
               print("重试三次以上,跳出循环")
               return None
           while retry<3:
               try:
                  req=self.session.get(url,timeout=10)
                  if req.status_code==requests.codes.ok:
                      return req.text
                  else:
                      time.sleep(random.randint(0,6))
               except:
                   print(‘Unfortunitely -- An Unknow Error Happened, Please wait 0-6 seconds‘)
                   time.sleep(random.randint(0, 6))
                   retry += 1
                   self.get_source(url,retry)

  

python爬虫模块之HTML下载模块

标签:返回   elf   lease   sts   agent   def   ESS   header   timeout   

原文地址:https://www.cnblogs.com/c-x-a/p/9175067.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!