码迷,mamicode.com
首页 > 其他好文 > 详细

爬虫cookie

时间:2018-06-16 14:31:25      阅读:164      评论:0      收藏:0      [点我收藏+]

标签:php   字段   创建对象   http   use   process   enc   抓包   通过   

# 通过检查或者抓包工具拿到网页真实的处理登录请求的地址
url = http://bbs.chinaunix.net/member.php?mod=logging&action=login&loginsubmit=yes&loginhash=Lk4hL

data = {
    username:Benson3172,
    password:081524..cyw
} # 登录信息, 分析网页源代码,拿到登录的字段构建字典

postdata = urllib.parse.urlencode(data).encode(utf8) # 两次编码
request = urllib.request.Request(url=url, data=postdata, headers=headers)

import http.cookiejar

cookie = http.cookiejar.CookieJar() # 创建对象
p_cookie = urllib.request.HTTPCookieProcessor(cookie) # 创建对象
opener = urllib.request.build_opener(p_cookie) # 创建opener对象
urllib.request.install_opener(opener) # 创建全局opener
file = opener.open(request) # 发送请求,并且保存cookie(个人理解)(也就是保存登录信息)
print(file.read().decode(utf8))

url2 = http://bbs.chinaunix.net/
file2 = opener.open(url2)  # 使用opener(携带cookie)爬取
print(file2.read().decode(utf8))

 

爬虫cookie

标签:php   字段   创建对象   http   use   process   enc   抓包   通过   

原文地址:https://www.cnblogs.com/BensonChang/p/9188027.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!