码迷,mamicode.com
首页 > 数据库 > 详细

python爬虫爬取网上药品信息并且存入数据库

时间:2020-01-03 12:41:58      阅读:248      评论:0      收藏:0      [点我收藏+]

标签:pytho   tab   inf   png   数据   arch   需要   sre   部分   

我最近在学习python爬虫,然后正好碰上数据库课设,我就选了一个连锁药店的,所以就把网上的药品信息爬取了下来。

1,首先分析网页

技术图片

2,我想要的是评论数比较多的,毕竟好东西大概是买的人多才好。然后你会发现它的url地址是有规律的里面的j1是指第一页,j2第二页,这样构建一个url_list。

1   url_list = https://www.111.com.cn/categories/953710-a0-b0-c31-d0-e0-f0-g0-h0-i0-j%s.html#然后循环获取响应
2 
3   for i in range(1, 30):
4 
5       response = requests.get(url_list % i, headers=headers)

 

3,然后就可以进行数据的提取,我是利用Chrome的xpath插件,不过一定要注意有时候你复制的xpath不一定准确需要自己分析

  我这里是演示提取价格,定位到价格选中后在Element里找到后点鼠标右键找到copy然后选择copy xpath,上面那个黑框就是xpath插件

    技术图片

 

4,连接数据库,我的数据库是mysql的

连接数据库的代码一般是这样

#!/usr/bin/python
# -*- coding: UTF-8 -*-

import MySQLdb

# 打开数据库连接
db = MySQLdb.connect("localhost", "root", "123", "lianxi", charset=utf8  )

# 使用cursor()方法获取操作游标
cursor = db.cursor()

# 如果数据表已经存在使用 execute() 方法删除表。
cursor.execute("DROP TABLE IF EXISTS EMPLOYEE")

# 创建数据表SQL语句
sql = """CREATE TABLE EMPLOYEE (
         FIRST_NAME  CHAR(20) NOT NULL,
         LAST_NAME  CHAR(20),
         AGE INT,  
         SEX CHAR(1),
         INCOME FLOAT )DEFAULT CHARSET =utf8"""

cursor.execute(sql)


#!/usr/bin/python
# -*- coding: UTF-8 -*-



# 打开数据库连接
db = MySQLdb.connect("localhost", "root", "123", "lianxi", charset=utf8 )

# 使用cursor()方法获取操作游标
cursor = db.cursor()

# SQL 插入语句
sql = """INSERT INTO EMPLOYEE(FIRST_NAME,
         LAST_NAME, AGE, SEX, INCOME)
         VALUES (‘王‘, ‘Mohan‘, 20, ‘M‘, 2000)"""
try:
   # 执行sql语句
   cursor.execute(sql)
   # 提交到数据库执行
   db.commit()
except:
   # Rollback in case there is any error
   db.rollback()
   print("a")
# 关闭数据库连接
db.close()

这个我是参照菜鸟教程的https://www.runoob.com/python/python-mysql.html

5,最后把源码附上,还有数据库里爬取的数据

import requests
from lxml import etree
import pymysql
def get_text(text):
    if text:
        return text[0]
    return ‘‘
def create():
    db = pymysql.connect("localhost", "root", "123", "lianxi",charset=utf8)  # 连接数据库

    cursor = db.cursor()
    cursor.execute("DROP TABLE IF EXISTS a")

    sql = """CREATE TABLE a (
            ID INT PRIMARY KEY AUTO_INCREMENT,
            药物名字  char (255),
            药物价格  char (7),
            药物网址  CHAR(255),
            药店ID   char (6)      )DEFAULT CHARSET =utf8"""

    cursor.execute(sql)

    db.close()



    db = pymysql.connect("localhost", "root", "123", "lianxi",charset=utf8)

    cursor = db.cursor()
    url_list = https://www.111.com.cn/categories/953710-a0-b0-c31-d0-e0-f0-g0-h0-i0-j%s.html
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.87 Safari/537.36"}

    for i in range(1, 30):
        response = requests.get(url_list % i, headers=headers)
        re=response.text
        content = etree.HTML(re)

        li_list = content.xpath(//ul[@id="itemSearchList"]/li)
        ##单价,描述,评论数量,详情页链接
        for li in li_list:
            # print(li)
            price = get_text(li.xpath(
                .//div[@isrecom="0"]/p[1]/textarea/span/text()|.//div[@isrecom="0"]/p[1]/span/text()|.//div[@isrecom="0"]/p[1]/span/u/text())).strip()
            name = li.xpath(.//div[@isrecom="0"]/p[2]/a/text())[1].strip()

            url = get_text(li.xpath(.//div[@class="itemSearchResultCon"]/a[1]/@href)).strip()
            infos = []
            item = {}
            item[价格] = price
            item[名字] = name

            item[地址] = https: + url
            infos.append(item)
            print(item[价格])
            print(item[地址])
            print(item[名字])
            a=1
            insert_sql = INSERT INTO a (药物价格,药物名字,药物网址,药店ID) VALUES (%s,%s,%s,%s)
            cursor.execute(insert_sql, (item[价格],item[名字] ,item[地址],a))


    try:

        db.commit()
        print(插入数据成功)
    except:
        db.rollback()
        print("插入数据失败")
    db.close()
if __name__ == __main__:
    create()

技术图片

 

总结:第一次写博客,写的很粗糙,代码部分可能不是写的很美,毕竟我也是个小白,希望大家多多留言,提提意见,一同进步。

python爬虫爬取网上药品信息并且存入数据库

标签:pytho   tab   inf   png   数据   arch   需要   sre   部分   

原文地址:https://www.cnblogs.com/suqingjiu/p/12144132.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!