码迷,mamicode.com
首页 >  
搜索关键字:urllib2    ( 900个结果
python分析nginx日志的ip(来源)
Python脚本如下:#!/usr/bin/envpython #_*_coding:utf-8_*_ __author__=‘gaogd‘ importMySQLdbasmysql importdatetime importsys,os,urllib2,json db=mysql.connect(user="root",passwd="xxxx@2015",db="intest",host="192.168.10.12")#数据库连接信息 db.autocommit(True)..
分类:编程语言   时间:2016-09-01 16:41:51    阅读次数:192
Python 爬虫入门(requests)
相信最开始接触Python爬虫学习的同学最初大多使用的是urllib,urllib2。在那之后接触到了第三方库requests,requests完全能满足各种http功能,真的是好用爆了 :D 他们是这样说的: “Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。 ...
分类:编程语言   时间:2016-08-27 12:38:53    阅读次数:239
Sublime Text 安装sftp插件
1. 先安装Package Control组件,用于管理插件。 按ctrl+`组合键,输入以下内容后按Enter键 sublime text 2 版本: import urllib2,os;pf='Package Control.sublime-package';ipp=sublime.instal ...
分类:其他好文   时间:2016-08-23 16:21:43    阅读次数:175
【python爬虫】用python编写LOL战绩查询
介绍一个简单的python爬虫,通过Tkinter创建一个客户端,当输入要查询的LOL用户名称的时候,可以显示出当前用户的所在服务器,当前战力和当前段位。 爬取网页地址:http://lol.duowan.com/zdl/ python版本:2.7 需要用到的模块:Tkinter urllib2 j ...
分类:编程语言   时间:2016-08-22 09:28:09    阅读次数:590
【爬虫】BeautifulSoup之爬取百度贴吧的帖子
在网上看到爬百度贴吧的例子,仿照写了一个用BeautifulSoup实现的,直接上代码吧 #coding:gbk import urllib2 from bs4 import BeautifulSoup import re import os class TiebatoTxt: def __init... ...
分类:其他好文   时间:2016-08-19 18:51:24    阅读次数:166
【爬虫】python之BeautifulSoup用法
1.爬虫 网络爬虫是捜索引擎抓取系统的重要组成部分。爬虫的主要目的是将互联网上的网页下载到本地形成一个或联网内容的镜像备份。通过分析和过滤HTML 代码,实现对图片、文字等资源的获取。 2.python类库之BeautifulSoup 利用python写爬虫,可以使用urllib2等库结合正则表达式... ...
分类:编程语言   时间:2016-08-19 18:47:23    阅读次数:269
Auto delete down host
#!/usr/bin/env python# coding:utf-8import osimport datetime,timeimport json,urllib2#zaabix api and user\pwdurl='http://10.1.180.166/zabbix/api_jsonrpc... ...
分类:其他好文   时间:2016-08-17 19:48:13    阅读次数:169
python urllib2介绍
urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件。他以urlopen函数的形式提供了一个非常简单的接口, 这是具有利用不同协议获取URLs的能力,他同样提供了一个比较复杂的接口来处理一般情况,例如:基础验证,cookies,代理和其他。 它们 ...
分类:编程语言   时间:2016-08-13 18:02:07    阅读次数:153
Python 爬虫6——Scrapy的安装和使用
前面我们简述了使用Python自带的urllib和urllib2库完成的一下爬取网页数据的操作,但其实能完成的功能都很简单,假如要进行复制的数据匹配和高效的操作,可以引入第三方的框架,例如Scrapy便是比较常用的爬虫框架。 一、Scrapy的安装: 1.最简单的安装方式: 根据官方主页的指导:ht ...
分类:编程语言   时间:2016-08-12 13:02:34    阅读次数:182
Python 爬虫4——使用正则表达式筛选内容
之前说过,使用urllib和urllib2,只是为了获取指定URL的html内容,而对内容进行解析和筛选,则需要借助python中的正则表达式来完成。 一、预备知识: 1.正则表达式简述: 什么是正则表达式?正则表达式就是可以匹配文本片段的模式,最简单的正则表达式就是一个字符串,用于在文本中匹配到此 ...
分类:编程语言   时间:2016-08-12 11:43:42    阅读次数:161
900条   上一页 1 ... 43 44 45 46 47 ... 90 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!