码迷,mamicode.com
首页 > Web开发 > 详细

scrapy_splash模块解析动态js

时间:2018-10-29 11:10:35      阅读:397      评论:0      收藏:0      [点我收藏+]

标签:加载   pip3   项目   middle   ssi   tar   nec   访问   wait   

一般遇到动态加载的网页就比较棘手,一般采用scrapy_splash和selenium这两种方式来解决。貌似scrapy_splash更强大,因为就从爬取美团这个网站而言,scrapy_splash可以实现,selenium没有实现。可能selenium没有设置对吧,按理说都应该可以的。

首先需要你安装scrapy_splash,需要用到docker。教程在网上自己找。很简单。两个命令的事,前提是你在linux环境下。安装好之后访问:http://127.0.0.1:8050/

安装模块 pip3 install scrapy-splash

scrapy-splash需要些lua脚本。比如加一些参数,请求头之类的。具体语法百度吧,我也不太清楚。

创建好项目之后。需要在setting中设置几个参数:

DOWNLOADER_MIDDLEWARES = {
    #scrapy_splash相关的中间件
    scrapy_splash.SplashCookiesMiddleware: 723,
    scrapy_splash.SplashMiddleware: 725,
    scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware: 810,
}

#‘scrapy_splash的去重的类
DUPEFILTER_CLASS = scrapy_splash.SplashAwareDupeFilter
# 最后配置一个Cache存储HTTPCACHE_STORAGE
HTTPCACHE_STORAGE = scrapy_splash.SplashAwareFSCacheStorage

然后开始写爬虫程序,也很简单,就是SplashRequest请求。然后指定需要执行的脚本。就会返回动态加载完成的页面。

# -*- coding: utf-8 -*-
import scrapy
from selenium import webdriver
import  time
from scrapy_splash import SplashRequest
script = """
function main(splash, args)
  assert(splash:wait(0.5))
  splash:set_custom_headers({
    [‘Accept‘] = ‘*/*‘,
    [‘Accept-Language‘] = ‘zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2‘,
    [‘Cache-Control‘] = ‘max-age=0‘,
    [‘Connection‘] = ‘keep-alive‘,
    [‘User-Agent‘] = ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36‘
  })
  splash.private_mode_enabled = false
  assert(splash:go(args.url))
  assert(splash:wait(10))
  return {
    html = splash:html(),
    png = splash:png(),
    har = splash:har(),
  }
end
"""

class MeituanspiderSpider(scrapy.Spider):
    name = meituanSpider
    # allowed_domains = [‘zz.meituan.com‘]
    start_urls = [http://zz.meituan.com/meishi/pn/]

    def start_requests(self):
        yield SplashRequest(self.start_urls[0], callback=self.parse, endpoint=execute,
                            args={lua_source: script, wait: 7})

    def parse(self, response):
        # 店铺名字
        list=response.xpath(//*[@id="app"]/section/div/div[2]/div[2]/div[1]/ul/li/div[2]/a/h4/text()).extract()
        for i in list :
            print(i)

如果不写脚本的话,是不会成功的,可能美团那边做了限制,脚本也很简单,就是加一些请求头。

 

scrapy_splash模块解析动态js

标签:加载   pip3   项目   middle   ssi   tar   nec   访问   wait   

原文地址:https://www.cnblogs.com/coder-lzh/p/9869278.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!