码迷,mamicode.com
首页 > 其他好文 > 详细

爬虫的概述以及使用(request发送请求)

时间:2020-03-28 16:29:35      阅读:67      评论:0      收藏:0      [点我收藏+]

标签:开发   令行   sts   coding   ike   src   请求   int   alt   

一、使用request发送请求

       安装:pip install requests(cmd命令行下执行)

技术图片

 

 

二、requests的基本使用

  import requests

  url = "http://www.baidu.com"
  res = requests.get(url)

  print(res.encoding)
  print(res.headers) #里面如果没有Content-Type,encoding=utf-8 ,否则如果charset,就以设置为准,否则就是ISO-8859-1

  print(res.url)

  运行结果:

技术图片

 

 

 

       print(res.text)是打印内容如果不设置encoding = "utf-8"就会有乱码,反之设置了就不会出现乱码了。

技术图片

 

 

 

 三、添加Headers来进行反爬

  import requests

  url = "http://www.dianping.com"

       #下面的是开发者模式下百度的User-Agent
  header = {
  "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"
  }
  res = requests.get(url,headers=header)

  print(res.encoding)
  print(res.headers)
  print(res.url)
  print(res.text)
  print(res.status_code)

四、总结

  requests请求和urllib请求方式大同小异,都是获取网站信息的请求方式。

爬虫的概述以及使用(request发送请求)

标签:开发   令行   sts   coding   ike   src   请求   int   alt   

原文地址:https://www.cnblogs.com/renleiblog/p/12587848.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!