码迷,mamicode.com
首页 > 其他好文 > 详细

链家新房爬虫

时间:2019-07-23 22:31:29      阅读:158      评论:0      收藏:0      [点我收藏+]

标签:decode   strip()   fan   http   int   inf   data-   nbsp   row   

# 链家新房爬虫

**今日目标**

爬取最新地区以及对应的房价
```python
import requests
import re
import csv

class LianjiaSpider(object):
    def __init__(self):
        self.url=https://cq.lianjia.com/ershoufang/pg{}/
        self.headers={User-Agent: Mozilla/5.0}

    #获取网址
    def get_page(self,url):
        res=requests.get(url,headers=self.headers)
        html=res.content.decode()
        #直接调用解析函数
        self.parse_page(html)

    #解析数据
    def parse_page(self,html):

        pattern=re.compile(<div class="houseInfo"><span.*?data-el="region">(.*?)</a>.*?<div class="totalPrice"><span>(.*?)</span>,re.S)
        r_list=pattern.findall(html)
        self.write_page(r_list)

    #保存
    def write_page(self,r_list):
        film_list=[]
        with open(lianjia.csv,a) as f:
            writer = csv.writer(f)
            for r in r_list:
            # 把处理过的数据定义成元组
                t=(r[0].strip(),r[1]+)
                film_list.append(t)
                writer.writerows(film_list)

    def main(self):
        for page in range(1,11):
            url=self.url.format(page)
            self.get_page(url)
            print(正在打印{}页.format(page))


if __name__ == __main__:
     spider=LianjiaSpider()
     spider.main()
```

 

链家新房爬虫

标签:decode   strip()   fan   http   int   inf   data-   nbsp   row   

原文地址:https://www.cnblogs.com/cxiaolong/p/11234872.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!