码迷,mamicode.com
首页 > 编程语言 > 详细

学习伟大的Python的第九~天

时间:2019-06-22 01:27:41      阅读:139      评论:0      收藏:0      [点我收藏+]

标签:nload   elf   定义   设定   change   rom   学习   文件夹   pie   

pythond的scrapy框架

1.概念

‘‘‘一 Scrapy爬虫框架 发送请求 ---> 获取响应数据 ---> 解析数据 ---> 保存数据
** Scarpy框架介绍 **
1、引擎(EGINE) 引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。
   2、调度器(SCHEDULER)
    用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

    3、下载器(DOWLOADER)
    用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

    4、爬虫(SPIDERS)
    SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求

    5、项目管道(ITEM PIPLINES)
    在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
    下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
    你可用该中间件做以下几件事:
        (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
        (2) change received response before passing it to a spider;
        (3) send a new Request instead of passing received response to a spider;
        (4) pass response to a spider without fetching a web page;
        (5) silently drop some requests.
   6、爬虫中间件(Spider Middlewares)
    位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

** Scarpy安装 **
    1、pip3 install wheel
    2、pip3 install lxml
    3、pip3 install pyopenssl
    4、pip3 install pypiwin32
    5、安装twisted框架
        下载twisted
            http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
        安装下载好的twisted
            pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl

    6、pip3 install scrapy

** Scarpy使用 **
    1、进入终端cmd
        - scrapy
            C:\Users\administortra>scrapy
            Scrapy 1.6.0 - no active project
   2、创建scrapy项目
        1.创建一个文件夹,专门用于存放scrapy项目
            - D:\Scrapy_prject
        2.cmd终端输入命令
            scrapy startproject Spider_Project( 项目名)
            - 会在 D:\Scrapy_prject文件夹下会生成一个文件
                   Spider_Project : Scrapy项目文件

        3.创建爬虫程序
            cd Spider_Project  # 切换到scrapy项目目录下
                          # 爬虫程序名称     目标网站域名
            scrapy genspider   baidu     www.baidu.com  # 创建爬虫程序
    3、启动scrapy项目,执行爬虫程序

        # 找到爬虫程序文件进行执行
        scrapy runspider只能执行某个 爬虫程序.py
            # 切换到爬虫程序执行文件目录下
            - cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders
            - scrapy runspider baidu.py

        # 根据爬虫名称找到相应的爬虫程序执行
        scrapy crawl 爬虫程序名称
            # 切换到项目目录下
            - cd D:\Scrapy_prject\Spider_Project
            - scrapy crawl baidu
‘‘‘
2.如何使用

技术图片

3.main.py

# from scrapy.cmdline import execute
# # 写终端的命令
# # scrapy crawl
# execute(["scrapy","crawl","baidu"])
from scrapy.cmdline import execute
# execute(["scrapy","genspider","lianjia","lianjia.com"])
# execute("scrapy crawl lianjia".split(" "))
execute("scrapy crawl --nolog lianjia".split(" "))

 -*- coding: utf-8 -*-
import scrapy
from scrapy import Request

# response的类
from scrapy.http.response.html import HtmlResponse
class LianjiaSpider(scrapy.Spider):
    name = lianjia‘  # 爬虫程序名
    # 只保留包含lianjia.com的url
    allowed_domains = [lianjia.com‘]  # 限制域名

    # 存放初始请求url
    start_urls = [https://bj.lianjia.com/ershoufang/]

    def parse(self, response):  # response返回的响应对象
        # print(response)
        # print(type(response))
        # # 获取文本
        # print(response.text)
        # print(response.url)
        # 获取区域列表url
        area_list = response.xpath(//div[@data-role="ershoufang"]/div/a)

        # 遍历所有区域列表
        for area in area_list:
            print(area)
            ‘‘‘
            .extract()提取多个
            .extract_first()提取一个
            ‘‘‘
            # 1、区域名称
            area_name = area.xpath(./text()).extract_first()
            print(area_name)
            # 2、区域二级url
            area_url = https://bj.lianjia.com/‘ + area.xpath(./@href).extract_first()
            print(area_url)
            # 会把area_url的请求响应数据交给callback方法
            # yield后面跟着的都会添加到生成器中
            yield Request(url=area_url, callback=self.parse_area)


    def parse_area(self, response):
        # print(response)

        house_list = response.xpath(//ul[@class="sellListContent"])
        # print(house_list)
        if house_list:
            for house in house_list:

                house_name = house.xpath(.//div[@class="title"]/a/text()).extract_first()
                print(house_name)

                house_cost = house.xpath(.//div[@class="totalPrice]/text()‘).extract_first() +
                print(house_cost)

                house_price = house.xpath(.//div[@class="unitPrice"]/span/text()).extract_first()
                print(house_price)

                pass

4.微信机器人

from wxpy import Bot
from pyecharts import Pie
import webbrowser

# 实例化一个微信机器人对象
bot = Bot()

# 获取到微信的所有好友
friends = bot.friends()

# 设定男性\女性\位置性别好友名称
attr = [男朋友‘, 女朋友‘, 人妖]

# 初始化对应好友数量
value = [0, 0, 0]

# 遍历所有的好友,判断这个好友是男性还是女性
for friend in friends:
    if friend.sex == 1:
        value[0] += 1
    elif friend.sex == 2:
        value[1] += 1
    else:
        value[2] += 1

# 实例化一个饼状图对象
pie = Pie(tank的好友们!)

# 图表名称str,属性名称list,属性所对应的值list,is_label_show是否现在标签
pie.add(‘‘, attr, value, is_label_show=True)

# 生成一个html文件
pie.render(friends.html)

# 打开html文件
webbrowser.open(friends.html‘)

最后一次关于这次实习培训的博客了,我觉得我被Tank老师打开了一个大门,因为这些以前是我都不知道的,我接触,了解,学习之后才知道这些知识,我首先就觉得非常神奇,非常有创造力,竟然可以做这么多!  但是我也觉得这个真的难...希望我以后也可以做到这些,努力加油,和老师们江湖再见

技术图片

 

学习伟大的Python的第九~天

标签:nload   elf   定义   设定   change   rom   学习   文件夹   pie   

原文地址:https://www.cnblogs.com/chenhhh/p/11067352.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!