标签:参数 fetchone share port nbsp fetch 模块 close fetchall
1.普通的sql语句查询完成之后,就要断开,下次查的时候又要重新开启,这样的话,效率会很低,所以利用pool 数据池来解决这种问题,pool数据池查询完之后,就不用去重新链接数据库了。
import pymysql from DBUtils.PooledDB import PooledDB POOL = PooledDB( creator=pymysql, # 使用链接数据库的模块,必填参数 maxconnections=6, # 连接池允许的最大连接数,0和None表示不限制连接数 mincached=2, # 初始化时,链接池中至少创建的空闲的链接,0表示不创建 maxcached=5, # 链接池中最多闲置的链接,0和None不限制 maxshared=3, # 链接池中最多共享的链接数量,0和None表示全部共享。PS: 无用,因为pymysql和MySQLdb等模块的 threadsafety都为1,所有值无论设置为多少,_maxcached永远为0,所以永远是所有链接都共享。 blocking=True, # 连接池中如果没有可用连接后,是否阻塞等待。True,等待;False,不等待然后报错 maxusage=None, # 一个链接最多被重复使用的次数,None表示无限制 setsession=[], # 开始会话前执行的命令列表。如:["set datestyle to ...", "set time zone ..."] ping=0, # ping MySQL服务端,检查是否服务可用。 # 如:0 = None = never, # 1 = default = whenever it is requested, # 2 = when a cursor is created, # 4 = when a query is executed, # 7 = always host="127.0.0.1", port=3306, user="root", password="", charset="utf8", db="day115" )
使用pool链接池来实现的添加和查询
from dbpool import POOL import pymysql #创建数据库链接 def create_conn(): conn = POOL.connection() cursor = conn.cursor(cursor=pymysql.cursors.DictCursor) return conn,cursor #关闭 def close_conn(conn,cursor): cursor.close() conn.close() # def insert(sql,args): conn,cursor = create_conn() res = cursor.execute(sql,args) conn.commit() close_conn(conn,cursor) return res # def fetch_one(sql,args): conn,cursor = create_conn() cursor.execute(sql,args) res = cursor.fetchone() #fetchone 查询单条数据 close_conn(conn,cursor) return res # def fetch_all(sql,args): conn,cursor = create_conn() cursor.execute(sql,args) res = cursor.fetchall() #查询所有的数据 close_conn(conn,cursor) return res # sql = "insert into users(name,age) VALUES (%s, %s)" # insert(sql,("mjj",9)) sql = "select * from users where name=%s and age=%s" print(fetch_one(sql,("mjj",9)))
标签:参数 fetchone share port nbsp fetch 模块 close fetchall
原文地址:https://www.cnblogs.com/wqzn/p/10269149.html