标签:html head data fan requests windows 个数 tle xls
一.主题式网络爬虫设计方案
1.主题式网络爬虫的名称
1.1链家网站的爬取
2,主题式网络爬虫的内容与数据特征分析
2.1爬虫的内容
房源信息的名称,小区名称,价格,楼层,代理人,单价,发布时间。
2.2 数据特征分析
2.2.1对楼层做一个词云并可视化
2.2.2对发布时间做一个折线图
3,主题式网络爬虫设计方案概述(包括实现思路和技术难点)
3.1实现思路
创建一个get的类,定义get_alldata()方法用来获取网页上的全部信息,get_detail()方法用来对整数数据的进一步加工和提取,再用字典把数据存储起来。
3.2技术难点
网站会有反爬取机制,需要模拟用户操作进行爬取。
二,主题页面的结构特征分析
1,主题页面的特征结构
每页30项数据,爬取了50页,数据量为1500条。通过F12查看网页源代码分析需要提取的数据是否存在动态生成的数据,任意查看一个数据项中与原网页中的数据对比后,发现所需要爬取的数据都是静态的。
2,HTML页面解析
方框内都是要爬取的内容
三,网络爬虫程序设计
1,爬虫程序主题要包括以下部分,要附源代码及较详解注释,并在每部分程序后面提供输出结果的截图。
# -*- coding: utf-8 -*- import requests from bs4 import BeautifulSoup import pandas as pd from wordcloud import WordCloud import matplotlib.pyplot as plt import jieba import seaborn as sns #固定url url_title = "https://sh.lianjia.com/chengjiao/pg" url_end = "/" Total_Data = {} #获取全部的网址信息 class Get: #获取所有url def get_url(self): list1 = [] #取50个 for i in range(0,51): url = url_title+str(i)+url_end#拼接参数得到完整的url list1.append(url) return list1 #解析出网页 def get_alldata(self,url): #user_agent = ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36‘ #headers = {‘User-Agent‘: user_agent} #data = requests.get(url,headers=headers) data = requests.get(url) soup = BeautifulSoup(data.text,‘lxml‘) return soup #获取title等,并存入字典 def get_detail(self,soup): for i in range(0,30): data1 = soup.select(‘div[class="info"]‘)[i] house_title =data1.find_all("div",class_="title") house_flood =data1.find_all("div",class_="flood") house_dealCycleeInfo = data1.find_all("div",class_="dealCycleeInfo") house_agentInfoList = data1.find_all("div",class_="agentInfoList") data = { ‘Title‘:house_title[0].get_text(), ‘flood‘:house_flood[0].get_text(), ‘dealCycleeInfo‘:house_dealCycleeInfo[0].get_text(), ‘agentInfoList‘:house_agentInfoList[0].get_text(), } Total_Data[data["Title"]] = data return Total_Data House_data = Get() House_url =House_data.get_url() for house_item in House_url: house_soup= House_data.get_alldata(house_item) data = House_data.get_detail(house_soup) df_house = pd.DataFrame.from_dict(data) df_house = df_house.T#转置 df_house.index=range(len(df_house))#reindex #==================================================== #数据清洗 df_house[‘agent‘]=df_house[‘agentInfoList‘].apply(lambda x:x.split("免费")[0]) del df_house[‘agentInfoList‘] df_house[‘price‘] = df_house[‘dealCycleeInfo‘].apply(lambda x:x.split("成交")[0]).apply(lambda x:x.split("挂牌")[1]) df_house[‘time‘] = df_house[‘dealCycleeInfo‘].apply(lambda x:x.split("成交")[-1]).apply(lambda x:x.split("周期")[-1]) del df_house[‘dealCycleeInfo‘] df_house[‘floor‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[0]) df_house[‘floor‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[0]) df_house[‘unitprice‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[-1]).apply(lambda x:x.split("楼")[-1]) del df_house[‘flood‘] df_house[‘time‘]=df_house[‘time‘].apply(lambda x:x.split("天")[0]) writer = pd.ExcelWriter(r‘C:\Users\DATACVG\Desktop\1100\lianjiasale.xlsx‘) df_house.to_excel(r‘C:\Users\DATACVG\Desktop\1100\lianjiasale.xlsx‘) #词云 cut_text = "".join(df_house[‘floor‘]) wordcloud = WordCloud( #设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的 font_path="C:/Windows/Fonts/simfang.ttf", #设置了背景,宽高 background_color="white",width=1000,height=880).generate(cut_text) plt.imshow(wordcloud, interpolation="bilinear") plt.axis("off") plt.show() cut_text = "".join(df_house[‘agent‘]) wordcloud = WordCloud( #设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的 font_path="C:/Windows/Fonts/simfang.ttf", #设置了背景,宽高 background_color="white",width=1000,height=880).generate(cut_text) plt.imshow(wordcloud, interpolation="bilinear") plt.axis("off") plt.show() #================================================= #数据可视化 #柱状图 s =df_house[‘time‘].value_counts() sns.barplot(x=s.index,y=s)
运行过程如下
数据清洗
df_house[‘agent‘]=df_house[‘agentInfoList‘].apply(lambda x:x.split("免费")[0]) del df_house[‘agentInfoList‘] df_house[‘price‘] = df_house[‘dealCycleeInfo‘].apply(lambda x:x.split("成交")[0]).apply(lambda x:x.split("挂牌")[1]) df_house[‘time‘] = df_house[‘dealCycleeInfo‘].apply(lambda x:x.split("成交")[-1]).apply(lambda x:x.split("周期")[-1]) del df_house[‘dealCycleeInfo‘] df_house[‘floor‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[0]) df_house[‘floor‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[0]) df_house[‘unitprice‘]=df_house[‘flood‘].apply(lambda x:x.split(‘ ‘)[-1]).apply(lambda x:x.split("楼")[-1]) del df_house[‘flood‘] df_house[‘time‘]=df_house[‘time‘].apply(lambda x:x.split("天")[0]) writer = pd.ExcelWriter(r‘C:\Users\DATACVG\Desktop\1100\lianjiasale.xlsx‘) df_house.to_excel(r‘C:\Users\DATACVG\Desktop\1100\lianjiasale.xlsx‘) #词云 cut_text = "".join(df_house[‘fitment‘]) wordcloud = WordCloud( #设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的 font_path="C:/Windows/Fonts/simfang.ttf", #设置了背景,宽高 background_color="white",width=1000,height=880).generate(cut_text) plt.imshow(wordcloud, interpolation="bilinear") plt.axis("off") plt.show() cut_text = "".join(df_house[‘roomnum‘]) wordcloud = WordCloud( #设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的 font_path="C:/Windows/Fonts/simfang.ttf", #设置了背景,宽高 background_color="white",width=1000,height=880).generate(cut_text) plt.imshow(wordcloud, interpolation="bilinear") plt.axis("off") plt.show() #================================================= #数据可视化 #柱状图 s =df_house[‘follow‘].value_counts() sns.barplot(x=s.index,y=s) #3.文本分析(可选):jieba分词、wordcloud可视化 #4.数据分析与可视化 (例如:数据柱形图、直方图、散点图、盒图、分布图、数据回归分析等) #词云 cut_text = "".join(df_house[‘floor‘]) wordcloud = WordCloud( #设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的 font_path="C:/Windows/Fonts/simfang.ttf", #设置了背景,宽高 background_color="white",width=1000,height=880).generate(cut_text) plt.imshow(wordcloud, interpolation="bilinear") plt.axis("off") plt.show() #================================================= #数据可视化 #柱状图 s =df_house[‘time‘].value_counts() sns.barplot(x=s.index,y=s)
5.数据持久化
写入csv文件
四、结论(10分)
1.经过对主题数据的分析与可视化,可以得到哪些结论?
1.1 单价低的房子更容易卖出。
1.2代理人对房子的销售影响很大
1.3 人们跟倾向于中层的房子
本次作业,对爬虫和数据分析做了个整合,将所学的知识都有用上,感觉很好,期待自己的每一次进步。
标签:html head data fan requests windows 个数 tle xls
原文地址:https://www.cnblogs.com/liyuchen44/p/12046419.html