码迷,mamicode.com
首页 > 编程语言 > 详细

【原创】用Python爬取LeetCode的AC代码到Github

时间:2014-10-15 17:52:31      阅读:427      评论:0      收藏:0      [点我收藏+]

标签:http   io   os   ar   for   文件   sp   art   on   

在leetCode写了105道题高调膜科,考虑搬迁到自己的GitHub上,做成一个解题题库,面试的时候也可以秀一个

但是!但是!

leetCode在线IDE的功能不要太舒服,我直接线上A了不少题,本地没有代码,除非有题调试半天A不来,本地才有存代码

于是我就考虑,直接用Python把leetCode上的AC代码爬下来,然后扔到本地github文件夹里,然后一个同步大法

大概涉及的知识:

 

0、cookie

1、网站的结构分析

2、脚本登陆

3、脚本爬站

 

 

----------------------------------------------------------------------------------------------------------------------------------------------

 

一、自动登录

Python的cookielib + urllib2 + urllib,然后leetCode这个网站有个Django的什么鸟码,在访问主页时会作为cookie发送过来,而在登录页面需要同时提交这个码,这个时候注意先访问主页,提取了这个码以后再访问登录页面,然后一同提交。

 

再有就是要修改header,我改了referer,之前一直403,wtf。。

 

code :

import urllib2
import cookielib
import urllib


mydir = r‘C:/Users/user/Documents/GitHub/leetcode/‘
myhost = r‘https://oj.leetcode.com‘ 



cookie = cookielib.CookieJar()
handler = urllib2.HTTPCookieProcessor(cookie)
urlOpener = urllib2.build_opener(handler)
urlOpener.open(‘https://oj.leetcode.com/‘)

csrftoken = ""
for ck in cookie:
csrftoken = ck.value


login = "shadowmydx"
mypwd = "**********" # 密码


values = {‘csrfmiddlewaretoken‘:csrftoken,‘login‘:login,‘password‘:mypwd,‘remember‘:‘on‘}
values = urllib.urlencode(values)
headers = {‘User-Agent‘:‘Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6)Gecko/20091201 Firefox/3.5.6‘, \
‘Origin‘:‘https://oj.leetcode.com‘,‘Referer‘:‘https://oj.leetcode.com/accounts/login/‘}



request = urllib2.Request("https://oj.leetcode.com/accounts/login/",values,headers=headers)

url = urlOpener.open(request)

page = url.read()

 

二、爬站

 

切割成几个子问题。首先,找到AC的题目地址,其次,找到AC的代码地址,最后,把AC代码爬到本地的GitHub项目文件夹中。

 

由于leetCode的IDE是js实现的动态页面,所以不能用FireBug直接审查元素来抓,而是要从发送过来的js代码中抓AC代码。这就意味着需要一个字典来转换特殊字符

def saveCode(code,title):
     global mydir
     f = open(mydir + title + ‘.cpp‘,‘w‘)
     f.write(code)

def downloadCode(refer,codeadd,title):
    global headers
    global urlOpener
    global myhost
    headers[‘Referer‘] = refer
    request = urllib2.Request(codeadd,headers=headers)
    url = urlOpener.open(request)
    all = url.read()
    tar = "storage.put(‘cpp‘,"
    index = all.find(tar,0)
    start = all.find(‘class Solution‘,index)
    finis = all.find("‘);",start)
    code = all[start:finis]
    toCpp = {‘\u000D‘:‘\n‘,‘\u000A‘:‘‘,‘\u003B‘:‘;‘,‘\u003C‘:‘<‘,‘\u003E‘:‘>‘,‘\u003D‘:‘=‘,\
    ‘\u0026‘:‘&‘,‘\u002D‘:‘-‘,‘\u0022‘:‘"‘,‘\u0009‘:‘\t‘,‘\u0027‘:"‘",‘\u005C‘:‘\\‘}
    for key in toCpp.keys():
         code = code.replace(key,toCpp[key])
    saveCode(code,title)

def findCode(address,title):
    global headers
    global urlOpener
    global myhost
    headers[‘Referer‘] = address
    address += ‘submissions/‘
    print ‘now is dealing ‘ + address + ‘: ‘ + title 
    request = urllib2.Request(address,headers=headers)
    url = urlOpener.open(request)
    all = url.read()
    tar = ‘class="text-danger status-accepted"‘
    index = all.find(tar,0)
    start = all.find(‘href="‘,index)
    finis = all.find(‘">‘,start)
    downloadCode(address,myhost + all[start + 6:finis],title) 

def findAdd(page):
    index = 0
    while 1:
         index = page.find(‘class="ac"‘,index)
         if index != -1:
             index += 1
             start = page.find(‘<td><a href="‘,index)
             finis = page.find(‘">‘,start)
             tmpfin = page.find(‘<‘,finis)
             title = page[finis + 2:tmpfin]
             findCode(myhost + page[start + 13:finis],title)
        else:
             break

 

最后,调用findAdd(page),大功告成

 

后记:最先的想法是做一个多线程的版本,后来想想还是先实现功能再说,否则就又增加一个烂尾玩具了。。

 

【原创】用Python爬取LeetCode的AC代码到Github

标签:http   io   os   ar   for   文件   sp   art   on   

原文地址:http://www.cnblogs.com/shadowmydx/p/4026566.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!