标签:targe sse imp final title 价格 跳转 比较 key
- selenium请求库:
- 本质上是一个自动化测试模块; ---> 主要用于测试 UI界面
- selenium除了可以做自动化测试,还可以做爬虫;
*******
- selenium可以帮我们打开(驱动)浏览器,然后往目标网站发送请求,获取响应数据;
- 本质上是通过python代码取代人为 操作浏览器;
*******
- selenium对比requests请求库:
- selenium:
- 优点:
- 不需要分详细分析目标网站的请求流程;
- 可以帮我们做 绕过 登录滑动认证;
- 可以通过python代码执行js
- 缺点:
- 爬虫效率低;
- requests:
- 优点:
- 爬虫效率高; 模拟浏览器,可能只需要获取一个user-agent即可, 无需等待css\js\视频等文件的加载;
- 缺点:
- 每一个网站都需要,详细分析请求流程,分析的时间非常耗时;
selenium最初是一个测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题
selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器
from selenium import webdriver
browser=webdriver.Chrome()
browser=webdriver.Firefox()
browser=webdriver.PhantomJS() #无窗口浏览器
browser=webdriver.Safari()
browser=webdriver.Edge()
selenium+chromedriver使用
1 #安装:selenium+chromedriver
2 pip3 install selenium
3 下载chromdriver.exe放到python安装路径的scripts目录中即可,
4 国内镜像网站地址:http://npm.taobao.org/mirrors/chromedriver
5 最新的版本去官网找:https://sites.google.com/a/chromium.org/chromedriver/downloads
注意: 若selenium驱动无法使用,可能是浏览器驱动版本与浏览器版本不相符;
selenium3默认支持的webdriver是Firfox,而Firefox需要安装geckodriver
下载链接:https://github.com/mozilla/geckodriver/releases
from selenium import webdriver
from selenium import webdriver
driver=webdriver.Chrome() # 弹出浏览器
driver.get('https://www.baidu.com')
# # webdriver.Chrome('谷歌浏览器的驱动路径') # 指向谷歌浏览器驱动
# # webdriver.Firefox('火狐浏览器的驱动路径') # 指向火狐浏览器驱动
使用步骤:
from selenium import webdriver
import time
# # 1.通过谷歌浏览器驱动,打开谷歌浏览器
# # 打开浏览器方式一
driver = webdriver.Chrome(executable_path=r'C:\Users\15614\Desktop\chromedriver.exe')
#
# # 打开浏览器方式二 推荐
driver = webdriver.Chrome()
print(driver)
# 2.往目标网站发送请求
driver.get('https://www.baidu.com/')
# 3.获取数据
# 根据id查找input输入框
input_tag = driver.find_element_by_id('kw')
print(input_tag)
# 4.在输入框输入内容
input_tag.send_keys('python')
time.sleep(10)
# 关闭浏览器,回收资源
driver.close()
自动在百度输入内容,并搜索:
from selenium import webdriver
from selenium.webdriver.common.keys import Keys # 键盘按键操作
import time
# 实现百度自动输入内容并搜索
driver = webdriver.Chrome()
# print(driver)
try:
# 2.往目标网站发送请求
driver.get('https://www.baidu.com/')
time.sleep(0.1)
# 等待元素加载的两种方式:
# 一 隐式等待,等待所有标签元素加载
driver.implicitly_wait(10)
# 3.获取数据
# 根据id查找百度的input输入框
input_tag = driver.find_element_by_id('kw')
# print(input_tag)
# 往百度输入输入python
input_tag.send_keys('python')
# 点击百度一下的按钮
submit_button = driver.find_element_by_id('su')
submit_button.click()
# input_tag.send_keys(Keys.ENTER) # 按回车
# 二 显式等待, 等待某一个元素加载10s (了解)
# WebDriverWait('驱动对象', '等待的时间')
# wait = WebDriverWait(driver, 10)
# wait.until()
time.sleep(5)
except Exception as e:
print(e)
finally:
driver.close() # 关闭浏览器
所有方法:
'''
*********
- find_element: 找第一个
- find_elements: 找所有
driver.find_element_by_id() id
driver.find_element_by_class_name() class属性必须唯一
driver.find_element_by_css_selector() #id .class
driver.find_element_by_link_text() 文本
driver.find_element_by_name() name属性必须唯一
driver.find_element_by_partial_link_text() 局部文本
driver.find_element_by_tag_name() # 了解
driver.find_element_by_xpath() xpath解析语法
'''
# 强调:
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
# 1、上述均可以改写成find_element(By.ID,'kw')的形式
# 2、find_elements_by_xxx的形式是查找到多个元素,结果为列表
以模拟百度登录为示例:
from selenium import webdriver
import time
driver = webdriver.Chrome()
try:
# 1. 发送请求
driver.get('https://www.baidu.com')
# 2.隐式等待
driver.implicitly_wait(10)
# 3.查找标签
# 根据登录文本查找登录a标签,并点击登录
# bd_login = driver.find_element_by_link_text('登录')
bd_login = driver.find_element_by_partial_link_text('登') # 局部文本
# 点击
bd_login.click()
# 4.查找用户名与密码登录按钮并点击
# 根据id查找该按钮标签
user_pwd_button = driver.find_element_by_id('TANGRAM__PSP_10__footerULoginBtn')
user_pwd_button.click()
# 5.根据name属性选择器查找用户名输入框并输入 (name属性必须唯一)
user_input = driver.find_element_by_name('userName')
user_input.send_keys('tomjoy')
time.sleep(1)
# 6.根据class属性选择器查找密码输入框并输入 (class属性必须唯一)
pwd_input = driver.find_element_by_class_name('pass-text-input-password')
pwd_input.send_keys('2020')
# 7.根据id查找确认登录按钮,并点击
summit_login = driver.find_element_by_id('TANGRAM__PSP_10__submit')
summit_login.click()
time.sleep(5)
finally:
driver.close()
#官网链接:http://selenium-python.readthedocs.io/locating-elements.html
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
import time
driver=webdriver.PhantomJS()
driver.get('https://doc.scrapy.org/en/latest/_static/selectors-sample1.html')
# wait=WebDriverWait(driver,3)
driver.implicitly_wait(3) #使用隐式等待
try:
# find_element_by_xpath
#//与/
# driver.find_element_by_xpath('//body/a') # 开头的//代表从整篇文档中寻找,body之后的/代表body的儿子,这一行找不到就会报错了
driver.find_element_by_xpath('//body//a') # 开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙
driver.find_element_by_css_selector('body a')
#取第n个
res1=driver.find_elements_by_xpath('//body//a[1]') #取第一个a标签
print(res1[0].text)
#按照属性查找,下述三者查找效果一样
res1=driver.find_element_by_xpath('//a[5]')
res2=driver.find_element_by_xpath('//a[@href="image5.html"]')
res3=driver.find_element_by_xpath('//a[contains(@href,"image5")]') #模糊查找
print('==>', res1.text)
print('==>',res2.text)
print('==>',res3.text)
#其他
res1=driver.find_element_by_xpath('/html/body/div/a')
print(res1.text)
res2=driver.find_element_by_xpath('//a[img/@src="image3_thumb.jpg"]') #找到子标签img的src属性为image3_thumb.jpg的a标签
print(res2.tag_name,res2.text)
res3 = driver.find_element_by_xpath("//input[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的input标签
res4 = driver.find_element_by_xpath("//*[@name='continue'][@type='button']") #查看属性name为continue且属性type为button的所有标签
time.sleep(5)
finally:
driver.close()
例子:
doc='''
<html>
<head>
<base href='http://example.com/' />
<title>Example website</title>
</head>
<body>
<div id='images'>
<a href='image1.html'>Name: My image 1 <br /><img src='image1_thumb.jpg' /></a>
<a href='image2.html'>Name: My image 2 <br /><img src='image2_thumb.jpg' /></a>
<a href='image3.html'>Name: My image 3 <br /><img src='image3_thumb.jpg' /></a>
<a href='image4.html'>Name: My image 4 <br /><img src='image4_thumb.jpg' /></a>
<a href='image5.html' class='li li-item' name='items'>Name: My image 5 <br /><img src='image5_thumb.jpg' /></a>
<a href='image6.html' name='items'><span><h5>test</h5></span>Name: My image 6 <br /><img src='image6_thumb.jpg' /></a>
</div>
</body>
</html>
'''
from lxml import etree
html=etree.HTML(doc)
# html=etree.parse('search.html',etree.HTMLParser())
# 1 所有节点
# a=html.xpath('//*')
# 2 指定节点(结果为列表)
# a=html.xpath('//head')
# 3 子节点,子孙节点
# a=html.xpath('//div/a')
# a=html.xpath('//body/a') #无数据
# a=html.xpath('//body//a')
# 4 父节点
# a=html.xpath('//body//a[@href="image1.html"]/..')
# a=html.xpath('//body//a[1]/..')
# 也可以这样
# a=html.xpath('//body//a[1]/parent::*')
# 5 属性匹配
# a=html.xpath('//body//a[@href="image1.html"]')
# 6 文本获取
# a=html.xpath('//body//a[@href="image1.html"]/text()')
# 7 属性获取
# a=html.xpath('//body//a/@href')
# # 注意从1 开始取(不是从0)
# a=html.xpath('//body//a[1]/@href')
# 8 属性多值匹配
# a 标签有多个class类,直接匹配就不可以了,需要用contains
# a=html.xpath('//body//a[@class="li"]')
# a=html.xpath('//body//a[contains(@class,"li")]')
# a=html.xpath('//body//a[contains(@class,"li")]/text()')
# 9 多属性匹配
# a=html.xpath('//body//a[contains(@class,"li") or @name="items"]')
# a=html.xpath('//body//a[contains(@class,"li") and @name="items"]/text()')
# # a=html.xpath('//body//a[contains(@class,"li")]/text()')
# 10 按序选择
# a=html.xpath('//a[2]/text()')
# a=html.xpath('//a[2]/@href')
# 取最后一个
# a=html.xpath('//a[last()]/@href')
# 位置小于3的
# a=html.xpath('//a[position()<3]/@href')
# 倒数第二个
# a=html.xpath('//a[last()-2]/@href')
# 11 节点轴选择
# ancestor:祖先节点
# 使用了* 获取所有祖先节点
# a=html.xpath('//a/ancestor::*')
# # 获取祖先节点中的div
# a=html.xpath('//a/ancestor::div')
# attribute:属性值
# a=html.xpath('//a[1]/attribute::*')
# child:直接子节点
# a=html.xpath('//a[1]/child::*')
# descendant:所有子孙节点
# a=html.xpath('//a[6]/descendant::*')
# following:当前节点之后所有节点
# a=html.xpath('//a[1]/following::*')
# a=html.xpath('//a[1]/following::*[1]/@href')
# following-sibling:当前节点之后同级节点
# a=html.xpath('//a[1]/following-sibling::*')
# a=html.xpath('//a[1]/following-sibling::a')
# a=html.xpath('//a[1]/following-sibling::*[2]')
# a=html.xpath('//a[1]/following-sibling::*[2]/@href')
# print(a)
1、selenium只是模拟浏览器的行为,而浏览器解析页面是需要时间的(执行css,js),一些元素可能需要过一段时间才能加载出来,为了保证能查找到元素,必须等待
2、等待的方式分两种:
隐式等待:在browser.get(‘xxx‘)前就设置,针对所有元素有效
显式等待:在browser.get(‘xxx‘)之后设置,只针对某个元素有效
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
browser=webdriver.Chrome()
#隐式等待:在查找所有元素时,如果尚未被加载,则等10秒
browser.implicitly_wait(10)
browser.get('https://www.baidu.com')
input_tag=browser.find_element_by_id('kw')
input_tag.send_keys('靓女')
input_tag.send_keys(Keys.ENTER)
contents=browser.find_element_by_id('content_left') #没有等待环节而直接查找,找不到则会报错
print(contents)
browser.close()
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By #按照什么方式查找,By.ID,By.CSS_SELECTOR
from selenium.webdriver.common.keys import Keys #键盘按键操作
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait #等待页面加载某些元素
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
input_tag=browser.find_element_by_id('kw')
input_tag.send_keys('靓女')
input_tag.send_keys(Keys.ENTER)
#显式等待:显式地等待某个元素被加载
wait=WebDriverWait(browser,10)
wait.until(EC.presence_of_element_located((By.ID,'content_left')))
contents=browser.find_element(By.CSS_SELECTOR,'#content_left')
print(contents)
browser.close()
点击: 标签对象.click
清空: 标签对象.clear
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver import ActionChains
import time
driver = webdriver.Chrome()
try:
driver.get('https://www.baidu.com/')
driver.implicitly_wait(10)
input_tag = driver.find_element_by_id('kw')
input_tag.send_keys('美女')
input_tag.send_keys(Keys.ENTER) # 回车
time.sleep(2)
# 再次找到input输入框,让鼠标悬浮在里面,清空输入框内容,重新输入即可
input_tag = driver.find_element_by_id('kw')
input_tag.clear()
input_tag.send_keys('帅哥')
input_tag.send_keys(Keys.ENTER)
input_tag.clear()
time.sleep(20)
finally:
driver.close()
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from selenium.webdriver import ActionChains
import time
'''
- Action Chains: 动作链
- 调用动作链类可以得到一个对象,对象中有方法可以帮你做 拖拽图片等操作
'''
driver = webdriver.Chrome()
try:
driver.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
driver.implicitly_wait(3) # 使用隐式等待
# iframe标签可以继续嵌套html文本
# 切换到 id为iframeResult 的 iframe标签页面中
driver.switch_to.frame('iframeResult')
# 需要拖动图片块的 源位置
source = driver.find_element_by_id('draggable')
print(source.location)
# 根据id为droppable 属性查找目标块 标签对象 目标位置
target = driver.find_element_by_id('droppable')
print(target.location)
# 方式一:基于同一个动作链串行执行
# actions = ActionChains(driver)
#
# # 制作动作链操作
# # drag_and_drop(source, target): 从source标签位置开始拖拽 到target标签的位置放下
# actions.drag_and_drop(source, target)
#
# # 调用perform() 才执行动作链
# actions.perform()
# 方式二: 模拟人的行为
# 滑块的距离
distance = target.location.get('x') - source.location.get('x')
# 注意: 只要是 ActionChains(driver)调用的方法,都需要调用 perform方法来执行
# 先点击鼠标,按住拖拽的标签
ActionChains(driver).click_and_hold(source).perform()
number = 0
while number < distance:
# 循环滑动,每次滑动3
# 每次移动3格
ActionChains(driver).move_by_offset(xoffset=20, yoffset=0).perform()
number += 20
# 移动完毕后,必须释放
ActionChains(driver).release().perform()
time.sleep(100)
finally:
driver.close()
from selenium import webdriver
try:
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('alert("hello world")') #打印警告
finally:
browser.close()
# 在交互动作比较难实现的时候可以自己写JS(万能方法)
frame标签是html文本里可以再嵌套html文本的标签
frame相当于一个单独的网页,在父frame里是无法直接查看到子frame的元素的,必须switch_to_frame切到该frame下,才能进一步查找
from selenium import webdriver
try:
browser=webdriver.Chrome()
browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
browser.switch_to.frame('iframeResult') #切换到id为iframeResult的frame
tag1=browser.find_element_by_id('droppable')
print(tag1)
# tag2=browser.find_element_by_id('textareaCode') #报错,在子frame里无法查看到父frame的元素
browser.switch_to.parent_frame() #切回父frame,就可以查找到了
tag2=browser.find_element_by_id('textareaCode')
print(tag2)
finally:
browser.close()
import time
from selenium import webdriver
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.get('https://www.taobao.com')
browser.get('http://www.sina.com.cn/')
browser.back() # 后退一页
time.sleep(10)
browser.forward() # 前进一页
browser.close()
from selenium import webdriver
browser=webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name':'xxx','value':'yyy'}) # 设置cookies ,必须设置name,value键
print(browser.get_cookies())
browser.delete_all_cookies() # 删除cookies
print(browser.get_cookies())
#选项卡管理:切换选项卡,有js的方式windows.open,有windows快捷键:ctrl+t等,最通用的就是js的方式
import time
from selenium import webdriver
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')
print(browser.window_handles) #获取所有的选项卡
browser.switch_to_window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(10)
browser.switch_to_window(browser.window_handles[0])
browser.get('https://www.sina.com.cn')
browser.close()
from selenium import webdriver
from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException
try:
browser=webdriver.Chrome()
browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
browser.switch_to.frame('iframssseResult')
except TimeoutException as e:
print(e)
except NoSuchFrameException as e:
print(e)
finally:
browser.close()
1.爬取京东商品信息
from selenium import webdriver
from selenium.webdriver.common.keys import Keys # 可以模拟键盘操作
import time
def get_goods(driver, f):
try:
# 模拟滚轮操作
number = 1000
for line in range(10):
js_code = """
window.scrollTo(0, %s)
"""% number
# execute_script: 该方法可以执行js代码
driver.execute_script(js_code)
time.sleep(0.5)
number += 1000
# js_code = """
# window.scrollTo(0, 5500)
# """
# driver.execute_script(js_code)
# 执行完js代码后。等待2秒加载数据
# time.sleep(2)
# find_elements ---> [element_obj1, element_obj2, ...]
goods_list = driver.find_elements_by_class_name('gl-item')
# print(goods_list)
print(len(goods_list))
for goods in goods_list:
# 商品名称
goods_name = goods.find_element_by_css_selector('.p-name em').text
# 商品详情url
# 第一种方法
# img_tag = goods.find_element_by_class_name('p-img')
# # a_tag = img_tag.find_element_by_tag_name('a')
# # # 获取a标签中的属性
# # href = a_tag.get_attribute('href')
# # print(href)
# 第二种方法
a_tag = goods.find_element_by_css_selector('.p-img a')
# get_attribute:获取标签元素的属性
goods_url = a_tag.get_attribute('href')
# 获取商品图片
img_tag = goods.find_element_by_css_selector('.p-img a img')
goods_img = img_tag.get_attribute('src')
print(goods_img)
# 商品价格
goods_price = goods.find_element_by_css_selector('.p-price i').text
# 商品评价人数
goods_commit = goods.find_element_by_css_selector('.p-commit a').text
goods_data = f"""
商品名称: {goods_name}
商品详情: {goods_url}
商品图片: {goods_img}
商品价格: {goods_price}
评论人数: {goods_commit}
---------------------------------------------------------------------
"""
# print(goods_data)
# 写入文件中
f.write(goods_data)
# 爬取完当前页,点击下一页继续爬
next_tag = driver.find_element_by_class_name('pn-next')
next_tag.click()
# 递归执行爬取当前页所有商品数据
get_goods(driver, f)
except Exception as e:
print(e)
pass
if __name__ == '__main__':
f = open('jd_goods.txt', 'a', encoding='utf-8')
driver = webdriver.Chrome()
try:
# 1.发送请求
driver.get('https://www.jd.com/')
# 2.隐身等待
driver.implicitly_wait(10)
# 3.根据id找到商品输入框
input_tag = driver.find_element_by_id('key')
input_tag.send_keys('AJ1')
input_tag.send_keys(
Keys.ENTER # 调用键盘回车键
)
get_goods(driver, f)
time.sleep(1000)
finally:
driver.close()
注意: 使用selenium爬取商品信息,会导致图片加载不过来就爬取,导致得到的图片是空的,所以使用request
标签:targe sse imp final title 价格 跳转 比较 key
原文地址:https://www.cnblogs.com/guapitomjoy/p/12149806.html