码迷,mamicode.com
首页 > 编程语言 > 详细

Python高级应用程序设计任务

时间:2019-12-21 11:53:48      阅读:92      评论:0      收藏:0      [点我收藏+]

标签:auto   object   tool   nump   mpi   完整   handle   des   exist   

Python高级应用程序设计任务要求

用Python实现一个面向主题的网络爬虫程序,并完成以下内容:
(注:每人一题,主题内容自选,所有设计内容与源代码需提交到博客园平台)

一、主题式网络爬虫设计方案(15分)
1.主题式网络爬虫名称

  去哪儿网攻略信息爬取

2.主题式网络爬虫爬取的内容与数据特征分析

  爬取内容:文章链接、标题、简要秒速信息、发布者、发布者个人标签、出发日期、天数、拍照数量、出行的类型、旅行的标签、途经、行程路线、人均消费、观看数、点赞数、评论数

  数据特征分析:

  1. 旅游出行类别分析
  2. 旅游出行各类别所占比例分析
  3. 对出行类别、出行描述与人均消费可视化图分析
  4. 各月份旅游量分析
  5. 出行天数、人均消费、观看数散点图分析

3.主题式网络爬虫设计方案概述(包括实现思路与技术难点)

  实现思路:编写 HandleQuNar 类,HandleQuNar 类中 __init__ () 初始化方法,初始化爬虫过程中的 User-Agent;handle_travel()方法对url迭代,采用requests库的get()获取对应的html网页,利用BeautifulSoup的find_all方法获取每一页的10个li进行遍历,利用find等方法获取标签内相应的文本并对获取的数据进行处理。每爬取完一个li(攻略信息),将其设置成字典的格式,调用save()方法进行保存;save()方法将数据存储到csv文件中;process_num()方法对爬取下来的部分数据进行处理;handle_request()方法用于返回url对应的html文本;—main—方法用于执行程序。

  技术难点:对数据的处理有一定的难点

二、主题页面的结构特征分析(15分)
1.主题页面的结构特征

  共200页,每页有10条 li 对应着每一个攻略信息,通过查看网页源代码,发现每页都是静态页面,无ajax、js产生的动态数据

  技术图片

2.Htmls页面解析

  图示中黑色框内为需爬取的数据。

技术图片

 

 

3.节点(标签)查找方法与遍历方法
(必要时画出节点树结构)

  爬取采用request库和BeautifulSoup库,利用BeautifulSoup的find_all方法获取每一页的10个li进行遍历,利用find等方法获取标签内相应的文本并对获取的数据进行处理。

技术图片

 

 

三、网络爬虫程序设计(60分)
爬虫程序主体要包括以下各部分,要附源代码及较详细注释,并在每部分程序后面提供输出结果的截图。

import requests
import re
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
from datetime import datetime
from urllib import parse
import os
from pandas import DataFrame

class HnadleQuNar(object):
    ‘‘‘定义标头‘‘‘
    def __init__(self):
        self.headers = {
            "User-Agent": UserAgent().random
        }
    ‘‘‘定义qunar_data.csv的路径‘‘‘
    file_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), qunar_data.csv)
    def handle_travel(self):
        ‘‘‘
            解析去哪儿网的攻略信息
            对于大部分字段用try-except,如果无相关字段,将以‘‘保存
        ‘‘‘
        for i in range(1, 201):
            ‘‘‘对200页的数据进行爬取‘‘‘
            travelbook_url = "https://travel.qunar.com/travelbook/list.htm?page=%d&order=hot_heat"%(i)
            travelbook_result = self.handle_request(method="GET", url=travelbook_url)
            soup = BeautifulSoup(travelbook_result , "html.parser" , from_encoding="utf-8")
            print("正在爬取:{}".format(travelbook_url))
            lis = soup.find_all("li", class_="list_item")#获取所有相关的li节点
            for li in lis:#遍历每一页的li节点
                ‘‘‘获取url信息‘‘‘
                url = li.find("h2").find(a)["href"]
                url = parse.urljoin(https://travel.qunar.com, url)
                ‘‘‘获取title信息‘‘‘
                try:
                    title = li.find("h2").find(a).get_text()
                except:
                    title = ‘‘

                try:
                    describle = li.find("h2").find(p)[class][1]
                except:
                    describle = ‘‘
                spans = li.find_all("span", class_="intro")
                for span in spans:
                    ‘‘‘获取发布者的用户名信息‘‘‘
                    try:
                        username = span.find("span").find("a",href=re.compile(r"space")).get_text()
                    except:
                        username = ‘‘
                    ‘‘‘获取发布者的个人标签‘‘‘
                    try:
                        label = span.find("span").find_all("a")
                        label = label[1].find("span")["title"]
                    except:
                        label = ‘‘
                    ‘‘‘获取出发日期‘‘‘
                    try:
                        startdate = span.find("span", class_="date").get_text()
                        startdate = re.findall(r(\d+-\d+-\d+) , startdate)[0]
                        startdate = datetime.strptime(startdate, "%Y-%m-%d")
                    except:
                        startdate = ‘‘
                    ‘‘‘获取天数‘‘‘
                    days = span.find("span",class_="days").get_text()
                    days = re.findall(r"\d+",days)[0]
                    days = int(days)
                    ‘‘‘获取照片数量‘‘‘
                    photo_nums = span.find("span", class_="photo_nums").get_text()
                    photo_nums = int(re.findall(r"\d+", photo_nums)[0])
                    ‘‘‘获取人均消费‘‘‘
                    try:
                        price = span.find("span", class_="fee").get_text()
                        price = int(re.findall(r"\d+",price)[0])
                    except:
                        price = 0
                    ‘‘‘获取出行人员的类型‘‘‘
                    try:
                        people = span.find("span", class_="people").get_text()
                    except:
                        people = ‘‘
                    ‘‘‘获取旅行的标签‘‘‘
                    try:
                        trip = span.find("span", class_="trip").get_text()
                    except:
                        trip = ‘‘
                ‘‘‘
                    获取旅行的途经
                    获取旅行的行程路线
                ‘‘‘
                try:
                    places = li.find_all("p", class_="places")
            # 因途经或行程路线有为空的可能,所以在此做一个逻辑判断
if(len(places)!=0): for i in range(len(places)): if(len(places) == 2): if(i==0): via_places =places[i].get_text() else: distance = places[i].get_text() elif(len(places)==1): if("途经" in places[i].get_text()): via_places = places[i].get_text() distance = ‘‘ else: distance = places[i].get_text() via_places = ‘‘ else: via_places = ‘‘ distance = ‘‘ except: via_places = ‘‘ distance = ‘‘ ‘‘‘获取该行程的观看数‘‘‘ view_nums = li.find("p", class_="user_info").find("span",class_="nums").find("span").find("span").get_text() view_nums = self.process_num(view_nums) ‘‘‘获取该行程的点赞数‘‘‘ praise_nums = li.find("p", class_="user_info").find("span", class_="nums").find("span",class_="icon_love").find("span").get_text() praise_nums = self.process_num(praise_nums) ‘‘‘获取该行程的评论数‘‘‘ comment_nums = li.find("p", class_="user_info").find("span", class_="nums").find("span",class_="icon_comment").find("span").get_text() comment_nums = self.process_num(comment_nums) # 写入到csv文件 df = DataFrame({ "url": [url], "title": [title], "describle": [describle], "username": [username], "label": [label], "date": [startdate], "days": [days], "photo_nums": [photo_nums], "people": [people], "trip": [trip], "via_places": [via_places], "distance": [distance], "price": [price], "view_nums": [view_nums], "praise_nums": [praise_nums], "comment_nums": [comment_nums] }) ‘‘‘利用save()将攻略信息保存‘‘‘ self.save(df) def save(self,df): ‘‘‘ 将数据写入csv ‘‘‘ # 若文件已存在,将以追加的形势存入csv文件中 if (os.path.exists(self.file_path)): df.to_csv(self.file_path, header=False, index=False, mode="a+", encoding="utf_8_sig") else: df.to_csv(self.file_path, index=False, mode="w+", encoding="utf_8_sig") def process_num(self,value): ‘‘‘ 将例如点赞数,观看数的一些数据格式化 ‘‘‘ if("" in value): value = float(re.search(r"\d+\.{0,1}\d{0,}",value)[0]) value = int(value*10000) else: value = int(re.search(r"\d+\.{0,1}\d{0,}",value)[0]) return value def handle_request(self,method,url,data=None,info=None): if method == "GET": response = requests.get(url=url,headers = self.headers) try: response.raise_for_status() #状态码 response.encoding = UTF-8 #定义编码格式 return response.text #获取对于的html文本 except Exception as e: raise e else: pass ‘‘‘主函数‘‘‘ if __name__ == "__main__": qunar = HnadleQuNar() qunar.handle_travel()

 

1.数据爬取与采集
2.对数据进行清洗和处理

  2.1进行导包

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from datetime import datetime
from mpl_toolkits. mplot3d import Axes3D

  2.2获取数据所保存的csv文件

qunar = pd.read_csv(r"D:\Python\qunar_data.csv")

  2.3查看数据前5行

qunar.head()

技术图片

 

  2.4查看数据分布情况

qunar.shape

技术图片

 

 

   2.5查看是否存在重复值

qunar.duplicated()

技术图片

 

 

   2.6去除"username"与"title"的重复值

# "title"、"username"不可存在重复值
qunar[username].drop_duplicates qunar[title].drop_duplicates
qunar.head()

技术图片

   2.7使用describe查看统计信息

qunar.describe()

技术图片

 

 

   2.8查看"describle"数据的合计,并将"describle"数据内的拼音转换为中文

qunar[describle].value_counts()

技术图片

qunar[describle] = qunar[describle].replace("meitu", "美图")
qunar[describle] = qunar[describle].replace("ganhuo", "干货")
qunar[describle] = qunar[describle].replace("duantupai", "短途派")
qunar[describle] = qunar[describle].replace("jinghua", "臻华")
qunar[describle] = qunar[describle].replace("wenyifan", "文艺范")
qunar[describle].value_counts()

技术图片

3.文本分析(可选):jieba分词、wordcloud可视化

4.数据分析与可视化

显示正常中文和负号

plt.rcParams[font.family] = [sans-serif]
plt.rcParams[font.sans-serif] = [SimHei]
plt.rcParams[axes.unicode_minus]=False #用来正常显示负号

  4.1查看出行人员类别的直方图

plt.bar(peoples.index, 
        peoples.values, 
        label="people各类人数直方图")
plt.legend()
plt.show()

技术图片

  4.2查看各旅行人员类别所占比例

peoples = qunar[‘people‘].value_counts()
Type = peoples.index Data = peoples.values plt.pie(Data ,labels=Type, autopct=%1.1f%%) plt.axis(equal) plt.title(各旅行人员类别所占比例) plt.show()

技术图片

 

  4.3查看"describle"与"people"所对应的人均消费信息并可视化

df_pivot = qunar.pivot_table(index="people", columns="describle", values="price")
df_pivot.shape
df_pivot

技术图片

df_pivot.plot(kind=bar, title=people and price)
plt.xlabel(people)
plt.ylabel(price)

技术图片

 

   4.4查看去哪儿各月份攻略信息的旅游量

for i in range(len(qunar[date])):
    qunar[date][i] = qunar[date][i].replace(qunar[date][i],qunar[date][i][5:7])
dates = qunar[date].value_counts()
plt.bar(dates.index, 
        dates.values, 
        label="各月份攻略信息的旅游量")
plt.legend()
plt.show()

技术图片

   4.5查看出行天数、人均消费、观看人数的3D散点图

fig = plt.figure()
ax = Axes3D(fig)
x = np.array(qunar[days]) 
y = np.array(qunar[price]) 
z = np.array(qunar[view_nums]) 
ax. scatter(x, y, z)
ax.set_xlabel(出行天数)
ax.set_ylabel( 人均消费 )
ax.set_zlabel(观看人数 )
plt.show()

技术图片

 

   

 

 

(例如:数据柱形图、直方图、散点图、盒图、分布图、数据回归分析等)
5.数据持久化

  将爬下来的数据存入csv文件中,以实现数据持久化

技术图片

 6.完整代码

  1 import requests
  2 import re
  3 from bs4 import BeautifulSoup
  4 from fake_useragent import UserAgent
  5 from datetime import datetime
  6 from urllib import parse
  7 import os
  8 from pandas import DataFrame
  9 import pandas as pd
 10 import numpy as np
 11 import matplotlib.pyplot as plt
 12 from datetime import datetime
 13 from mpl_toolkits. mplot3d import Axes3D
 14 
 15 class HnadleQuNar(object):
 16     ‘‘‘定义标头‘‘‘
 17     def __init__(self):
 18         self.headers = {
 19             "User-Agent": UserAgent().random
 20         }
 21     ‘‘‘定义qunar_data.csv的路径‘‘‘
 22     file_path = os.path.join(os.path.dirname(os.path.abspath(__file__)), qunar_data.csv)
 23     def handle_travel(self):
 24         ‘‘‘
 25             解析去哪儿网的攻略信息
 26             对于大部分字段用try-except,如果无相关字段,将以‘‘保存
 27         ‘‘‘
 28         for i in range(1, 201):
 29             ‘‘‘对200页的数据进行爬取‘‘‘
 30             travelbook_url = "https://travel.qunar.com/travelbook/list.htm?page=%d&order=hot_heat"%(i)
 31             travelbook_result = self.handle_request(method="GET", url=travelbook_url)
 32             soup = BeautifulSoup(travelbook_result , "html.parser" , from_encoding="utf-8")
 33             print("正在爬取:{}".format(travelbook_url))
 34             lis = soup.find_all("li", class_="list_item")#获取所有相关的li节点
 35             for li in lis:#遍历每一页的li节点
 36                 ‘‘‘获取url信息‘‘‘
 37                 url = li.find("h2").find(a)["href"]
 38                 url = parse.urljoin(https://travel.qunar.com, url)
 39                 ‘‘‘获取title信息‘‘‘
 40                 try:
 41                     title = li.find("h2").find(a).get_text()
 42                 except:
 43                     title = ‘‘
 44 
 45                 try:
 46                     describle = li.find("h2").find(p)[class][1]
 47                 except:
 48                     describle = ‘‘
 49                 spans = li.find_all("span", class_="intro")
 50                 for span in spans:
 51                     ‘‘‘获取发布者的用户名信息‘‘‘
 52                     try:
 53                         username = span.find("span").find("a",href=re.compile(r"space")).get_text()
 54                     except:
 55                         username = ‘‘
 56                     ‘‘‘获取发布者的个人标签‘‘‘
 57                     try:
 58                         label = span.find("span").find_all("a")
 59                         label = label[1].find("span")["title"]
 60                     except:
 61                         label = ‘‘
 62                     ‘‘‘获取出发日期‘‘‘
 63                     try:
 64                         startdate = span.find("span", class_="date").get_text()
 65                         startdate = re.findall(r(\d+-\d+-\d+) , startdate)[0]
 66                         startdate = datetime.strptime(startdate, "%Y-%m-%d")
 67                     except:
 68                         startdate = ‘‘
 69                     ‘‘‘获取天数‘‘‘
 70                     days = span.find("span",class_="days").get_text()
 71                     days = re.findall(r"\d+",days)[0]
 72                     days = int(days)
 73                     ‘‘‘获取照片数量‘‘‘
 74                     photo_nums = span.find("span", class_="photo_nums").get_text()
 75                     photo_nums = int(re.findall(r"\d+", photo_nums)[0])
 76                     ‘‘‘获取人均消费‘‘‘
 77                     try:
 78                         price = span.find("span", class_="fee").get_text()
 79                         price = int(re.findall(r"\d+",price)[0])
 80                     except:
 81                         price = 0
 82                     ‘‘‘获取出行人员的类型‘‘‘
 83                     try:
 84                         people = span.find("span", class_="people").get_text()
 85                     except:
 86                         people = ‘‘
 87                     ‘‘‘获取旅行的标签‘‘‘
 88                     try:
 89                         trip = span.find("span", class_="trip").get_text()
 90                     except:
 91                         trip = ‘‘
 92                 ‘‘‘
 93                     获取旅行的途经
 94                     获取旅行的行程路线
 95                 ‘‘‘
 96                 try:
 97                     places = li.find_all("p", class_="places")
 98                     if(len(places)!=0):
 99                         for i in range(len(places)):
100                             if(len(places) == 2):
101                                 if(i==0):
102                                     via_places =places[i].get_text()
103                                 else:
104                                     distance = places[i].get_text()
105                             elif(len(places)==1):
106                                 if("途经" in places[i].get_text()):
107                                     via_places = places[i].get_text()
108                                     distance = ‘‘
109                                 else:
110                                     distance = places[i].get_text()
111                                     via_places = ‘‘
112                     else:
113                         via_places = ‘‘
114                         distance = ‘‘
115                 except:
116                     via_places = ‘‘
117                     distance = ‘‘
118                 ‘‘‘获取该行程的观看数‘‘‘
119                 view_nums = li.find("p", class_="user_info").find("span",class_="nums").find("span").find("span").get_text()
120                 view_nums = self.process_num(view_nums)
121                 ‘‘‘获取该行程的点赞数‘‘‘
122                 praise_nums = li.find("p", class_="user_info").find("span", class_="nums").find("span",class_="icon_love").find("span").get_text()
123                 praise_nums = self.process_num(praise_nums)
124                 ‘‘‘获取该行程的评论数‘‘‘
125                 comment_nums = li.find("p", class_="user_info").find("span", class_="nums").find("span",class_="icon_comment").find("span").get_text()
126                 comment_nums = self.process_num(comment_nums)
127                 # 写入到csv文件
128                 df = DataFrame({
129                     "url": [url],
130                     "title": [title],
131                     "describle": [describle],
132                     "username": [username],
133                     "label": [label],
134                     "date": [startdate],
135                     "days": [days],
136                     "photo_nums": [photo_nums],
137                     "people": [people],
138                     "trip": [trip],
139                     "via_places": [via_places],
140                     "distance": [distance],
141                     "price": [price],
142                     "view_nums": [view_nums],
143                     "praise_nums": [praise_nums],
144                     "comment_nums": [comment_nums]
145                 })
146                 ‘‘‘利用save()将攻略信息保存‘‘‘
147                 print(df)
148                 self.save(df)
149 
150     def save(self,df):
151         ‘‘‘
152         将数据写入csv
153         ‘‘‘
154         # 如果文件已经存在了,追加的形式写入文件,且不设置columns
155         if (os.path.exists(self.file_path)):
156             # 字符编码采用utf-8-sig,因为存在表情包
157             df.to_csv(self.file_path, header=False, index=False, mode="a+", encoding="utf_8_sig")
158         else:
159             df.to_csv(self.file_path, index=False, mode="w+", encoding="utf_8_sig")
160 
161     def process_num(self,value):
162         ‘‘‘
163         将例如点赞数,观看数的一些数据格式化
164         ‘‘‘
165         if("" in value):
166             value = float(re.search(r"\d+\.{0,1}\d{0,5}",value)[0])
167             value = int(value*10000)
168         else:
169             value = int(re.search(r"\d+\.{0,1}\d{0,5}",value)[0])
170         return value
171 
172     def handle_request(self,method,url,data=None,info=None):
173         if method == "GET":
174             response = requests.get(url=url,headers = self.headers)
175             try:
176                 response.raise_for_status() #状态码
177                 response.encoding = UTF-8 #定义编码格式
178                 return response.text        #获取对于的html文本
179             except Exception as e:
180                 raise e
181         else:
182             pass
183 ‘‘‘主函数‘‘‘
184 if __name__ == "__main__":
185     qunar = HnadleQuNar()
186     qunar.handle_travel()
187 
188 
189 qunar = pd.read_csv(r"D:\Python\qunar_data.csv")
190 qunar.head()#查看文件前5行
191 qunar.shape#查看文件行列数
192 qunar.duplicated()
193 
194 # "title"、"username"不可存在重复值
195 qunar[username].drop_duplicates
196 qunar[title].drop_duplicates
197 qunar.head()
198 qunar.describe()
199 
200 #将"describle"字段中的拼音改为中文
201 qunar[describle] = qunar[describle].replace("meitu", "美图")
202 qunar[describle] = qunar[describle].replace("ganhuo", "干货")
203 qunar[describle] = qunar[describle].replace("duantupai", "短途派")
204 qunar[describle] = qunar[describle].replace("jinghua", "臻华")
205 qunar[describle] = qunar[describle].replace("wenyifan", "文艺范")
206 qunar[describle].value_counts()#修改后的"describle"统计
207 
208 #用于正常显示中文和负号
209 plt.rcParams[font.family] = [sans-serif]
210 plt.rcParams[font.sans-serif] = [SimHei]
211 plt.rcParams[axes.unicode_minus]=False
212 
213 #查看出行人员类别的直方图
214 peoples = qunar[people].value_counts()
215 plt.bar(peoples.index,
216         peoples.values,
217         label="people各类人数直方图")
218 plt.legend()
219 plt.show()
220 
221 #查看各旅行人员类别所占比例(扇形图)
222 Type = peoples.index
223 Data = peoples.values
224 plt.pie(Data ,labels=Type, autopct=%1.1f%%)
225 plt.axis(equal)
226 plt.title(各旅行人员类别所占比例)
227 plt.show()
228 
229 #查看"describle"与"people"所对应的人均消费透视表并可视化
230 df_pivot = qunar.pivot_table(index="people", columns="describle", values="price")
231 df_pivot.shape
232 df_pivot.plot(kind=bar, title=people and price)
233 plt.xlabel(people)
234 plt.ylabel(price)
235 
236 #查看去哪儿各月份攻略信息的旅游量
237 for i in range(len(qunar[date])):
238     qunar[date][i] = qunar[date][i].replace(qunar[date][i],qunar[date][i][5:7])
239 dates = qunar[date].value_counts()
240 plt.bar(dates.index,
241         dates.values,
242         label="各月份攻略信息的旅游量")
243 plt.legend()
244 plt.show()
245 
246 #查看出行天数、人均消费、观看人数的3D散点图
247 fig = plt.figure()
248 ax = Axes3D(fig)
249 x = np.array(qunar[days])
250 y = np.array(qunar[price])
251 z = np.array(qunar[view_nums])
252 ax. scatter(x, y, z)
253 ax.set_xlabel(出行天数)
254 ax.set_ylabel( 人均消费 )
255 ax.set_zlabel(观看人数 )
256 plt.show()

 

 

 

四、结论(10分)
1.经过对主题数据的分析与可视化,可以得到哪些结论?

  1.1通过对出行人员类别的可视图分析,可以看出,去哪儿攻略中大多数的出行人员类别都是“”三五好友“”,攻略中所占比例为36.5%。而出行人员类别中的"学生"在攻略中是最少的。攻略中所占比例为1.3%.

  1.2通过对"describle"与"people"所对应的人均消费信息并可视图分析,在人均消费中,属出行类别为"家庭",描述类别为"精品"的人均消费最高。而类别为"学生"的人均消费都较低。同时也可以看出:出行描述中,"精品"的人均消费最高,"短途派"的人均消费最低。出行类别中,"家庭"、"亲子"人均消费较其他出行类别人均消费更高。

  1.3通过对去哪儿各月份攻略信息的旅游量可视图分析,可以看出,旅游攻略中,大多数的出行时间为4-10月份,其中6月的旅游量最高,12月份的旅游量最低。

  1.4通过对出行天数、人均消费、观看人数的3D散点图分析,可以看出出行天数和人均消费存在正相关,其他之间存在较弱的相关性。

2.对本次程序设计任务完成的情况做一个简单的小结。

  通过这次的爬虫任务以及数据分析,了解了更多关于爬虫的技巧和知识,也发现了对这方面还需要补充很多的知识,’需要查缺补漏,更深层的掌握爬虫技术。

Python高级应用程序设计任务

标签:auto   object   tool   nump   mpi   完整   handle   des   exist   

原文地址:https://www.cnblogs.com/wuzezong/p/11992040.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!