码迷,mamicode.com
首页 > 编程语言 > 详细

[转载]python实现带验证码网站的自动登陆

时间:2016-05-29 19:56:33      阅读:164      评论:0      收藏:0      [点我收藏+]

标签:

 

   

早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错。

 
本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie。
 

Cookie的工作原理:

Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中。在下次请求同一网站时,会发送该Cookie给服务器,这样服务器就知道该用户是否合法以及是否需要重新登录。
 

Python提供了基本的cookielib库,在首次访问某页面时,cookie便会自动保存下来,之后访问其它页面便都会带有正常登录的Cookie了。

 
原理:
(1)激活cookie功能
(2)反“反盗链”,伪装成浏览器访问
(3)访问验证码链接,并将验证码图片下载到本地
(4)验证码的识别方案网上较多,python也有图像处理库,此例调用了火车头采集器的OCR识别接口。
(5)表单的处理,可用fiddler等抓包工具获取需要提交的参数
(6)生成需要提交的数据,生成http请求并发送
(7)根据返回的js页面判断是否登陆成功
(8)登陆成功后下载其它页面
 

此例中使用多个账号轮询登陆,每个账号下载指定数目页面。

 

以下是部分代码:

#!usr/bin/env python
 
#-*- coding: utf-8 -*-
 
import os
import urllib2
import urllib
import cookielib
import xml.etree.ElementTree as ET
 
#-----------------------------------------------------------------------------
# Login in www.***.com.cn
def ChinaBiddingLogin(url, username, password):
        # Enable cookie support for urllib2
        cookiejar=cookielib.CookieJar()
        urlopener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))
        urllib2.install_opener(urlopener)
        
        urlopener.addheaders.append((‘Referer‘, ‘http://www.chinabidding.com.cn/zbw/login/login.jsp‘))
        urlopener.addheaders.append((‘Accept-Language‘, ‘zh-CN‘))
        urlopener.addheaders.append((‘Host‘, ‘www.chinabidding.com.cn‘))
        urlopener.addheaders.append((‘User-Agent‘, ‘Mozilla/5.0 (compatible; MISE 9.0; Windows NT 6.1); Trident/5.0‘))
        urlopener.addheaders.append((‘Connection‘, ‘Keep-Alive‘))
 
        print ‘XXX Login......‘
 
        imgurl=r‘http://www.*****.com.cn/zbw/login/image.jsp‘
        DownloadFile(imgurl, urlopener)
        authcode=raw_input(‘Please enter the authcode:‘)
        #authcode=VerifyingCodeRecognization(r"http://192.168.0.106/images/code.jpg")
 
        # Send login/password to the site and get the session cookie
        values={‘login_id‘:username, ‘opl‘:‘op_login‘, ‘login_passwd‘:password, ‘login_check‘:authcode}
        urlcontent=urlopener.open(urllib2.Request(url, urllib.urlencode(values)))
        page=urlcontent.read(500000)
 
        # Make sure we are logged in, check the returned page content
        if page.find(‘login.jsp‘)!=-1:
                print ‘Login failed with username=%s, password=%s and authcode=%s‘ \
                                % (username, password, authcode)
                return False
        else:
                print ‘Login succeeded!‘
                return True
 
#-----------------------------------------------------------------------------
# Download from fileUrl then save to fileToSave
# Note: the fileUrl must be a valid file
def DownloadFile(fileUrl, urlopener):
        isDownOk=False
 
        try:
                if fileUrl:
                        outfile=open(r‘/var/www/images/code.jpg‘, ‘w‘)
                        outfile.write(urlopener.open(urllib2.Request(fileUrl)).read())
                        outfile.close()
 
                        isDownOK=True
                else:
                        print ‘ERROR: fileUrl is NULL!‘
        except:
                isDownOK=False
 
        return isDownOK
 
#------------------------------------------------------------------------------
# Verifying code recoginization
def VerifyingCodeRecognization(imgurl):
        url=r‘http://192.168.0.119:800/api?‘
        user=‘admin‘
        pwd=‘admin‘
        model=‘ocr‘
        ocrfile=‘cbi‘
 
        values={‘user‘:user, ‘pwd‘:pwd, ‘model‘:model, ‘ocrfile‘:ocrfile, ‘imgurl‘:imgurl}
        data=urllib.urlencode(values)
 
        try:
                url+=data
                urlcontent=urllib2.urlopen(url)
        except IOError:
                print ‘***ERROR: invalid URL (%s)‘ % url
 
        page=urlcontent.read(500000)
 
        # Parse the xml data and get the verifying code
        root=ET.fromstring(page)
        node_find=root.find(‘AddField‘)
        authcode=node_find.attrib[‘data‘]
 
        return authcode
 
#------------------------------------------------------------------------------
# Read users from configure file
def ReadUsersFromFile(filename):
        users={}
        for eachLine in open(filename, ‘r‘):
                info=[w for w in eachLine.strip().split()]
                if len(info)==2:
                        users[info[0]]=info[1]
 
        return users
 
#------------------------------------------------------------------------------
def main():
        login_page=r‘http://www.***.com.cnlogin/login.jsp‘
        download_page=r‘http://www.***.com.cn***/***?record_id=‘
 
        start_id=8593330
        end_id=8595000
 
        now_id=start_id
        Users=ReadUsersFromFile(‘users.conf‘)
        while True:
                for key in Users:
                        if ChinaBiddingLogin(login_page, key, Users[key]):
                                for i in range(3):
                                        pageUrl=download_page+‘%d‘ % now_id
                                        urlcontent=urllib2.urlopen(pageUrl)
 
                                        filepath=‘./download/%s.html‘ % now_id
                                        f=open(filepath, ‘w‘)
                                        f.write(urlcontent.read(500000))
                                        f.close()
 
                                        now_id+=1
                        else:
                                continue
#------------------------------------------------------------------------------
 
if __name__==‘__main__‘:
        main()

[转载]python实现带验证码网站的自动登陆

标签:

原文地址:http://www.cnblogs.com/fkissx/p/5540073.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!