标签:之间 图片 选项 持久化存储 bs4 loading 小说 chapter network
聚焦爬虫:在通用爬虫的基础之上,可以将一张页面中局部指定的数据进行爬取。可以通过数据解析的方式将一张页面中局部的数据进行解析或者提取。
需求:可以将站长素材中的高清图片数据进行批量爬取
分析:
import requests
import re
import os
#将每一个页码对应的图片数据进行下载
if not os.path.exists(‘./imgLib‘):
os.mkdir(‘./imgLib‘)
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36"
}
#定义一个通用的url模板
url_model = ‘http://sc.chinaz.com/tupian/fengjingtupian_%d.html‘
# 下载4页图片
for page in range(1,5):
print(‘正在下载第%d页的数据‘%page)
if page == 1:
url = ‘http://sc.chinaz.com/tupian/fengjingtupian.html‘
else:
url = format(url_model%page)
page_text = requests.get(url=url,headers=headers).text
#使用正则将图片地址进行提取
re_ex = ‘<a target="_blank".*?<img src2="(.*?)" alt.*?</a>‘
#正则在解析数据时,遇到换行会停止匹配数据。re.S就可以让正则遇到换行不停止匹配
#在爬虫中必须要使用re.S
img_src = re.findall(re_ex,page_text,re.S)
for src in img_src:
img_name = src.split(‘/‘)[-1]
img_path = ‘./imgLib/‘+img_name
img_data = requests.get(url=src,headers=headers).content
with open(img_path,‘wb‘) as fp:
fp.write(img_data)
print(img_name,‘下载成功!‘)
伪属性机制,做解析时,需要将伪属性的属性值进行解析即可。
Elements和Netword选项卡中对应的页面源码内容的区别:
环境安装:
bs4数据解析的原理
BeautifulSoup对象的实例化:
标签定位
取文本
取属性
测试示例html代码操作
<html lang="en">
<head>
<meta charset="UTF-8" />
<title>测试bs4</title>
</head>
<body>
<div>
<p>百里守约</p>
</div>
<div class="song">
<p>李清照</p>
<p>王安石</p>
<p>苏轼</p>
<p>柳宗元</p>
<a href="http://www.song.com/" title="赵匡胤" target="_self">
<span>this is span</span>
宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
<a href="" class="du">总为浮云能蔽日,长安不见使人愁</a>
<img src="http://www.baidu.com/meinv.jpg" alt="" />
</div>
<div class="tang">
<ul>
<li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
<li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
<li><a href="http://www.126.com" alt="qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
<li><a href="http://www.sina.com" class="du">杜甫</a></li>
<li><a href="http://www.dudu.com" class="du">杜牧</a></li>
<li><b>杜小月</b></li>
<li><i>度蜜月</i></li>
<li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
</ul>
</div>
</body>
</html>
bs4数据解析操作方法
from bs4 import BeautifulSoup
fp = open(‘./test.html‘,‘r‘,encoding=‘utf-8‘)
soup = BeautifulSoup(fp,‘lxml‘) #返回的是加载到该对象中的页面源码数据
soup.title#获取title标题
soup.div#获取第一次出现的div标签
soup.find(‘div‘,class_=‘song‘)## 属性定位:根据树新定位具体的标签,class属性为song的div标签,因为class是内置属性,所以要加下划线class_,如果是id则直接用id=‘xxx‘
soup.find_all(‘div‘,class_=‘song‘)
soup.select(‘.song‘) #返回的是列表
soup.select(‘#feng‘)
soup.select(‘.tang > ul > li > a ‘)
soup.select(‘.tang a‘)
soup.title.string
soup.title.text
soup.find(‘div‘,class_=‘song‘).text
soup.find(‘a‘,id="feng")[‘href‘]
使用bs4实现将诗词名句网站中三国演义小说的每一章的内容爬去到本地磁盘进行存储 - http://www.shicimingju.com/book/sanguoyanyi.html
思路:
url = ‘http://www.shicimingju.com/book/sanguoyanyi.html‘
page_text = requests.get(url=url,headers=headers).text
#数据解析
soup = BeautifulSoup(page_text,‘lxml‘)#soup只可以解析首页的内容
a_list = soup.select(‘.book-mulu > ul > li > a‘)
fp = open(‘./sanguo.txt‘,‘w‘,encoding=‘utf-8‘)
for a in a_list:
title = a.string
detail_url = ‘http://www.shicimingju.com‘+a[‘href‘]
detail_page_text = requests.get(url=detail_url,headers=headers).text
#数据解析:解析章节内容
detail_soup = BeautifulSoup(detail_page_text,‘lxml‘)
div_tag = detail_soup.find(‘div‘,class_=‘chapter_content‘)
content = div_tag.text
fp.write(title+‘:‘+content+‘\n‘)
print(title,‘已经下载成功!!!‘)
fp.close()
标签:之间 图片 选项 持久化存储 bs4 loading 小说 chapter network
原文地址:https://www.cnblogs.com/remixnameless/p/13155027.html