码迷,mamicode.com
首页 > 编程语言 > 详细

Python3爬取百度百科(配合PHP)

时间:2016-08-17 12:16:23      阅读:293      评论:0      收藏:0      [点我收藏+]

标签:

用PHP写了一个网页,可以获取百度百科词条:http://www.selflink.cn/xiaobaike(只爬取摘要部分)

技术分享

 

那么通过Python来爬取,只需要不断向这个网页POST数据,获取返回值就可以了。由于是我自己的网页,保存返回值我也让PHP在服务器端来完成了,所以Python的任务只需要不断向服务器POST数据。

 

那么POST什么数据呢?暂时找到了一个名词大全的网页。http://cidian.911cha.com/cixing_mingci.html

技术分享

足足20页的名词,足够作为名词POST数据的来源了。

 

下面是获取各种名词的python代码:

zd = []
for i in range(20):
    url = http://cidian.911cha.com/cixing_mingci_p+str(i+1)+.html
    webpage = urllib.request.urlopen(url)
    data = webpage.read()
    data = data.decode(utf-8)
    ‘‘‘
    file = open(‘d:/Pythoncode/simplecodes/0.html‘,‘w‘,encoding=‘utf-8‘)
    file.write(data)
    file.close()
    ‘‘‘
    k = re.findall(rtarget="_blank">.+?</a>,data)
    cou = 0
    cx=[]
    for i in k :
        if cou%2==0:
            cx.append(i)
        cou= cou+1
    for it in cx:
        m = re.search(rtarget="_blank">(.*?)</a>,it)
        iturl = m.group(1)
        zd.append(iturl)

 

现在字典里已经保存了足足20页的名词,下一步就是要向服务器POST数据,保存词条内容了。

for i in zd :
    s=i
    print(i)
    s=urllib.parse.quote(s)
    url = "http://www.selflink.cn/xiaobaike/?name=%s"%(s)
    try:
        urllib.request.urlopen(url,timeout=5)
    except Exception as e:
        pass

 

python开始运行了……

技术分享

 

最后爬到了1902个词条内容0.0

技术分享

 

获取了这么多词条有什么用呢?……我也不知道,不过,获取知识也许是人工智能的开始吧^_^

Python3爬取百度百科(配合PHP)

标签:

原文地址:http://www.cnblogs.com/itlqs/p/5779185.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!