码迷,mamicode.com
首页 > 编程语言 > 详细

Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)

时间:2018-07-13 17:41:20      阅读:210      评论:0      收藏:0      [点我收藏+]

标签:errors   arc   图片   arch   reserve   ade   url   乱码   编码问题   

从某些网站看小说的时候经常出现垃圾广告,一气之下写个爬虫,把小说链接抓取下来保存到txt,用requests_html全部搞定,代码简单,容易上手.

中间遇到最大的问题就是编码问题,第一抓取下来的小说内容保持到txt时出现乱码,第二url编码问题,第三UnicodeEncodeError

先贴源代码,后边再把思路还有遇到的问题详细说明。

 

from requests_html import HTMLSession as hs

def get_story(url):
    global f
    session=hs()
    r=session.get(url,headers=headers)
    r.html.encoding=GBK
    title=list(r.html.find(title))[0].text#获取小说标题
    nr=list(r.html.find(.nr_nr))[0].text#获取小说内容
    nextpage=list(r.html.find(#pb_next))[0].absolute_links#获取下一章节绝对链接
    nextpage=list(nextpage)[0]
    if(nr[0:10]=="_Middle();"):
        nr=nr[11:]
    if(nr[-14:]==本章未完,点击下一页继续阅读):
        nr=nr[:-15]
    print(title,r.url)
    f.write(title)
    f.write(\n\n)
    f.write(nr)
    f.write(\n\n)
    return nextpage


def search_story():
    global BOOKURL
    global BOOKNAME
    haveno=[]
    booklist=[]
    bookname=input("请输入要查找的小说名:\n")
    session=hs()
    payload={searchtype:articlename,searchkey:bookname.encode(GBK),t_btnsearch:‘‘}
    r=session.get(url,headers=headers,params=payload)
    haveno=list(r.html.find(.havno))#haveno有值,则查找结果如果为空
    booklist=list(r.html.find(.list-item))#booklist有值,则有多本查找结果
    while(True):
        if(haveno!=[] and booklist==[]):
            print(Sorry~!暂时没有搜索到您需要的内容!请重新输入)
            search_story()
            break
        elif(haveno==[] and booklist!=[]):
            print("查找到{}本小说".format(len(booklist)))
            for book in booklist:
                print(book.text,book.absolute_links)
            search_story()
            break
        else:
            print("查找到结果,小说链接:",r.url)
            BOOKURL=r.url
            BOOKNAME=bookname
            break


global BOOKURL
global BOOKNAME
url=http://m.50zw.net/modules/article/waps.php
headers = {
    User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36 OPR/53.0.2907.99
}

search_story()
chapterurl=BOOKURL.replace("book","chapters")
session=hs()
r=session.get(chapterurl,headers=headers)
ch1url=list(r.html.find(.even))[0].absolute_links#获取第一章节绝对链接
ch1url=list(ch1url)[0]
global f
f=open(BOOKNAME+.txt, a,encoding=gb18030,errors=ignore)
print("开始下载,每一章节都需要爬到,速度快不了,请等候。。。。\n")
nextpage=get_story(ch1url)
while(nextpage!=BOOKURL):
    nextpage=get_story(nextpage)
f.close
    

 

爬虫思路及遇到的问题分析如下:

先查找小说,并且把小说链接抓取下来,以网站http://m.50zw.net/modules/article/waps.php为例,首先在浏览器中打开链接并且右键点检查,选择Network标签,我用的是chrome浏览器,按F1设置把Network底下的Preserve log勾选上,方便接下来查找log,以搜索‘帝后世无双’为例,搜索到结果后直接跳到了此本小说的url:http://m.50zw.net/book_86004/

技术分享图片

 

查看到请求方式是GET,Request URL是 http://m.50zw.net/modules/article/waps.php?searchtype=articlename&searchkey=%B5%DB%BA%F3%CA%C0%CE%DE%CB%AB&t_btnsearch=

然后分析出请求参数有三个,searchtype先固定用图书名来查找,而searchkey我们输入的是”敌后世无双“,url encoding成了%B5%DB%BA%F3%CA%C0%CE%DE%CB%AB,我们在python ide里边分别输入:

"敌后世无双".encode(‘GBK‘):b‘\xb5\xd0\xba\xf3\xca\xc0\xce\xde\xcb\xab‘

"敌后世无双".encode(‘utf-8‘):b‘\xe6\x95\x8c\xe5\x90\x8e\xe4\xb8\x96\xe6\x97\xa0\xe5\x8f\x8c‘

对照输出结果我们知道这里url编码采用的是GBK

接下来我们用代码来验证我们分析的结果

from requests_html import HTMLSession as hs
url=http://m.50zw.net/modules/article/waps.php
payload={searchtype:articlename,searchkey:帝后世无双,t_btnsearch:‘‘}
headers = {
    User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36 OPR/53.0.2907.99
}
session=hs()
r=session.get(url,headers=headers,params=payload)
print(r.url)

 

 运行结果:

http://m.50zw.net/modules/article/waps.php?searchtype=articlename&searchkey=%E5%B8%9D%E5%90%8E%E4%B8%96%E6%97%A0%E5%8F%8C&t_btnsearch=

比较得到的url跟我们刚才手动输入后得到的url有出入,代码里边如果没有指定编码格式的话了这里url编码默认是urf-8,因为编码问题我们没有得到我们想要的结果,那接下来我们修改代码指定编码试试

payload={searchtype:articlename,searchkey:帝后世无双.encode(GBK),t_btnsearch:‘‘}

 

这回运行结果得到我们想要的url:

 http://m.50zw.net/book_86004/

好,成功了!!!

那接下来我们要获取第一章节的链接,中间用到了requests_html来抓取绝对链接

bookurl=http://m.50zw.net/book_86004/
chapterurl=bookurl.replace("book","chapters")
session=hs()
r=session.get(chapterurl,headers=headers)
ch1url=list(r.html.find(.even))[0].absolute_links
ch1url=list(ch1url)[0]
print(ch1url)

 

 运行结果:

http://m.50zw.net/book_86004/26127777.html

成功取得第一章节链接

接下来我们开始获取小说内容并且获取下一章链接直到把整本小说下载下来为止,

在这个部分遇到UnicodeEncodeError: ‘gbk‘ codec can‘t encode character ‘\xa0‘ in position 46:illegal multibyte sequence,这个问题最终在用open函数打开txt时加两个参数解决encoding=‘gb18030‘,errors=‘ignore‘.

在之前也用过另外一种方案,就是把u‘\xa0‘替换成跟它等效的u‘ ‘,虽然解决了‘\xa0‘的error,可是后来又出现了’\xb0‘的error,总不能出现一个类似的rror就修改代码替换一次,所以这个方案被放弃掉.

 

session=hs()
r=session.get(ch1url,headers=headers)
title=list(r.html.find(title))[0].text
nr=list(r.html.find(.nr_nr))[0].text
##nr=nr.replace(u‘\xa0‘,u‘ ‘)
nextpage=list(r.html.find(#pb_next))[0].absolute_links
nextpage=list(nextpage)[0]
if(nr[0:10]=="_Middle();"):
    nr=nr[11:]
if(nr[-14:]==本章未完,点击下一页继续阅读):
    nr=nr[:-15]
print(title,r.url)
print(nextpage)
f=open(帝后世无双.txt, a,encoding=gb18030,errors=ignore)
f.write(title)
f.write(\n\n)
f.write(nr)
f.write(\n\n)

 

Python爬虫中文小说网点查找小说并且保存到txt(含中文乱码处理方法)

标签:errors   arc   图片   arch   reserve   ade   url   乱码   编码问题   

原文地址:https://www.cnblogs.com/springyun/p/9300474.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!