码迷,mamicode.com
首页 > 编程语言 > 详细

Python高级应用程序设计任务

时间:2019-12-20 18:14:14      阅读:118      评论:0      收藏:0      [点我收藏+]

标签:XML   代码分析   关注   整合   turn   乱码   信息   数据分析   分布图   

一.主题式网络爬虫设计方案

1.主题式网络爬虫的名称

1.1链家房产售价的爬取与分析

2,主题式网络爬虫的内容与数据特征分析

2.1爬虫的内容

房源信息的名称,小区名称,房间数量,房间大小,朝向,装修,楼层,建筑年限,是否为板楼,关注人数,发布时间。

2.2 数据特征分析

2.2.1对装修做一个词云并可视化

2.2.2对房间数量做一个词云并可视化 

2.2.3对关注人数做一个折线图

3,主题式网络爬虫设计方案概述(包括实现思路和技术难点)

3.1实现思路

   创建一个get的类,定义get_alldata()方法用来获取网页上的全部信息,get_detail()方法用来对整数数据的进一步加工和提取,再用字典把数据存储起来。

3.2技术难点

 网站会有反爬取机制,需要模拟用户操作进行爬取。

二,主题页面的结构特征分析

1,主题页面的特征结构

每页30项数据,爬取了50页,数据量为1500条。通过F12查看网页源代码分析需要提取的数据是否存在动态生成的数据,任意查看一个数据项中与原网页中的数据对比后,发现所需要爬取的数据都是静态的。

技术图片

 

2,HTML页面解析

技术图片

 

 

 方框内都是要爬取的内容

技术图片

 

三,网络爬虫程序设计

1,爬虫程序主题要包括以下部分,要附源代码及较详解注释,并在每部分程序后面提供输出结果的截图。

# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup
import pandas as pd
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import jieba
import seaborn as sns
#固定url
url_title = "https://sh.lianjia.com/ershoufang/pg"
url_end = "/"
Total_Data = {}
#获取全部的网址信息
class Get:
#获取所有url
def get_url(self):
list1 = []
#取50个
for i in range(0,51):
url = url_title+str(i)+url_end#拼接参数得到完整的url
list1.append(url)
return list1

#解析出网页
def get_alldata(self,url):
#user_agent = ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36‘
#headers = {‘User-Agent‘: user_agent}
#data = requests.get(url,headers=headers)
data = requests.get(url)
soup = BeautifulSoup(data.text,‘lxml‘)
return soup
#获取title等,并存入字典
def get_detail(self,soup):
for i in range(0,30):
data1 = soup.select(‘div[class="info clear"]‘)[i]
house_title =data1.find_all("a")
house_flood =data1.find_all("div",class_="flood")
house_address = data1.find_all("div",class_="address")
house_followinfo = data1.find_all("div",class_="followInfo")
data = {
‘Title‘:house_title[0].get_text(),
‘flood‘:house_flood[0].get_text(),
‘address‘:house_address[0].get_text(),
‘followinfo‘:house_followinfo[0].get_text()
}
Total_Data[data["Title"]] = data
return Total_Data

House_data = Get()
House_url =House_data.get_url()
for house_item in House_url:
house_soup= House_data.get_alldata(house_item)
data = House_data.get_detail(house_soup)

df_house = pd.DataFrame.from_dict(data)
df_house = df_house.T#转置
df_house.index=range(len(df_house))#reindex


#====================================================
#数据清洗

df_house[‘roomnum‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[0])
df_house[‘area‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[1])
df_house[‘orientation‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[2])
df_house[‘fitment‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[3])
df_house[‘floor‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[4])
df_house[‘year‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[5])
df_house[‘type‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[6])
del df_house[‘address‘]
df_house[‘follow‘]=df_house[‘followinfo‘].apply(lambda x :x.split(‘/‘)[0]).apply(lambda x:x.split(‘人‘)[0])
df_house[‘time‘]=df_house[‘followinfo‘].apply(lambda x :x.split(‘/‘)[1])
del df_house[‘followinfo‘]
df_house[‘area‘]=df_house[‘area‘].apply(lambda x:x.split("平")[0])
writer = pd.ExcelWriter(r‘C:\Users\DATACVG\Desktop\1100\lianjiabuy.xlsx‘)
df_house.to_excel(r‘C:\Users\DATACVG\Desktop\1100\lianjiabuy.xlsx‘)

运行过程如下

技术图片

 

技术图片

 

 

 

 数据清洗

df_house[‘roomnum‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[0])
df_house[‘area‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[1])
df_house[‘orientation‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[2])
df_house[‘fitment‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[3])
df_house[‘floor‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[4])
df_house[‘year‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[5])
df_house[‘type‘]=df_house[‘address‘].apply(lambda x :x.split(‘|‘)[6])
del df_house[‘address‘]
df_house[‘follow‘]=df_house[‘followinfo‘].apply(lambda x :x.split(‘/‘)[0]).apply(lambda x:x.split(‘人‘)[0])
df_house[‘time‘]=df_house[‘followinfo‘].apply(lambda x :x.split(‘/‘)[1])
del df_house[‘followinfo‘]
df_house[‘area‘]=df_house[‘area‘].apply(lambda x:x.split("平")[0])
writer = pd.ExcelWriter(r‘C:\Users\DATACVG\Desktop\1100\lianjiabuy.xlsx‘)
df_house.to_excel(r‘C:\Users\DATACVG\Desktop\1100\lianjiabuy.xlsx‘)


#词云
cut_text = "".join(df_house[‘fitment‘])
wordcloud = WordCloud(
#设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的
font_path="C:/Windows/Fonts/simfang.ttf",
#设置了背景,宽高
background_color="white",width=1000,height=880).generate(cut_text)

plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()

cut_text = "".join(df_house[‘roomnum‘])
wordcloud = WordCloud(
#设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的
font_path="C:/Windows/Fonts/simfang.ttf",
#设置了背景,宽高
background_color="white",width=1000,height=880).generate(cut_text)

plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()

#=================================================
#数据可视化
#柱状图
s =df_house[‘follow‘].value_counts()
sns.barplot(x=s.index,y=s)

 3.文本分析(可选):jieba分词、wordcloud可视化
4.数据分析与可视化
(例如:数据柱形图、直方图、散点图、盒图、分布图、数据回归分析等)

cut_text = "".join(df_house[‘fitment‘])
wordcloud = WordCloud(
#设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的
font_path="C:/Windows/Fonts/simfang.ttf",
#设置了背景,宽高
background_color="white",width=1000,height=880).generate(cut_text)

plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()

cut_text = "".join(df_house[‘roomnum‘])
wordcloud = WordCloud(
#设置字体,不然会出现口字乱码,文字的路径是电脑的字体一般路径,可以换成别的
font_path="C:/Windows/Fonts/simfang.ttf",
#设置了背景,宽高
background_color="white",width=1000,height=880).generate(cut_text)

plt.imshow(wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()

 技术图片

 

 技术图片

 

 

#=================================================
#数据可视化
#柱状图
s =df_house[‘follow‘].value_counts()
sns.barplot(x=s.index,y=s)

技术图片

 

 

5.数据持久化

  写入csv文件

技术图片

 

 

四、结论(10分)
1.经过对主题数据的分析与可视化,可以得到哪些结论?

  1.1 地段好的地方卖价更高。

     1.2人们更倾向去住精装修的房子

     1.3 人们跟倾向与朝向为南的房子

     本次作业,对爬虫和数据分析做了个整合,将所学的知识都有用上,感觉很好,期待自己的每一次进步。

Python高级应用程序设计任务

标签:XML   代码分析   关注   整合   turn   乱码   信息   数据分析   分布图   

原文地址:https://www.cnblogs.com/shuiling1998/p/12046318.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!