码迷,mamicode.com
首页 >  
搜索关键字:mys    ( 5094个结果
图像界面还原备份mysql
一.打开Navicat ,在我们要到处的数据上面右击鼠标,然后弹出的快捷菜单上点击“转储SQL 文件” 二.然后,在会弹出一个选择保存位置的保存框,选择好位置后,点确定 三.打开Navicat for MySQL,然后点击右键选择新建数据库 四.点击确定,我们就可以在左边看到建好的数据库,然后右击“ ...
分类:数据库   时间:2019-05-26 13:02:51    阅读次数:118
Oracle UNDO块
1)首先更新几条数据,但是不进行commit如下: 2)v$transaction列出活动事务相关信息 XIDUSN:Undo segment numberXIDSLOT:Slot numberUBAFIL:Undo block address(UBA) filenumUBABLK:UBA bloc ...
分类:数据库   时间:2019-05-26 00:34:08    阅读次数:144
怎么避免mysql死锁
怎么避免mysql死锁1、以固定的顺序访问表和行。比如两个更新数据的事务,事务A更新数据的顺序为1,2;事务B更新数据的顺序为2,1;。这样更可能会造成死锁。2、大事务拆小。大事务更倾向于死锁,如果业务允许,将大事务拆小。3.在同一个事务中,尽可能做到一次锁定所需要的所有资源,减少死锁概率。4、降低隔离级别。如果业务允许,将隔离级别调低也是比较好的选择,比如将隔离级别从RR调整为RC,可以避免很多
分类:数据库   时间:2019-05-25 21:32:00    阅读次数:147
mysql修改原始密码
后期修改数据库用户的密码初始密码为自动生成,我们需要情况原始密码,再修改密码,mysqldmin -u root 只能用在修改为原始密码之后使用systemctl stop mysqldvim /etc/my.cnf添加skip-grant-tables启动服务systemctl start mys ...
分类:数据库   时间:2019-05-25 09:47:00    阅读次数:139
关于MySQL去除查询结果重复值
下面先来看看例子: table: id name 1 a 2 b 3 c 4 c 5 b 库结构大概这样,这只是一个简单的例子,实际情况会复杂得多。 比如我想用一条语句查询得到name不重复的所有数据,那就必须使用distinct去掉多余的重复记录。 select distinct name fro ...
分类:数据库   时间:2019-05-24 19:40:57    阅读次数:109
redis慢查询日志
运维需求 许多存储系统(如:MySQL)提供慢查询日志帮助开发与运维人员定位系统存在的慢操作.所谓慢查询日志就是系统在命令执行前后计算每条命令的执行时间,当超过预设阈值,就将这条命令的相关信息(例如:发生时间,耗时,命令的详细信息)记录到慢查询日志中,Redis也提供了类似的功能. 以下是一次故障的 ...
分类:其他好文   时间:2019-05-24 12:46:59    阅读次数:90
MySQL使用on duplicate key update时导致主键不连续自增
使用on duplicate key update语法有时是很方便,但是会有一个影响:默认情况下,每次更新都会更新该表的自增主键ID,如果更新频率很快,会导致主键ID自增的很快,过段时间就超过数字类型的的范围了解决这个问题,有两种方式:(实际目前的方式就是把自增主键ID设置为bigint,也有一部分 ...
分类:数据库   时间:2019-05-24 10:52:08    阅读次数:258
mysql数据库操作
import pymysqlfrom week_9.common.config import configclass DoMysql: def __init__(self): #建立连接 host = config.get('mysql','host') user = config.get('mys ...
分类:数据库   时间:2019-05-24 01:09:39    阅读次数:133
复习MySQL②数据类型及约束条件
数据类型分为数值类型、日期和时间类型、字符串类型 数值类型: – INT:有符号的和无符号的。有符号大小-2147483648~2147483647,无符号大0~4294967295。 宽度最多为11个数字- int(11)– TINYINT:有符号的和无符号的。有符号大小-128~127,无符号大 ...
分类:数据库   时间:2019-05-23 14:24:13    阅读次数:110
Scrapy模块的使用
在爬虫文件中 1.将解析到的页面数据存储至items对象中 2.使用yield关键字将items提交给管道文件进行处理 在items中 3.在管道文件中编写代码完成数据存储 在pipelines文件中 并在setting文件中设置 4.在终端执行操作 scrapy crawl f1 --nolog ...
分类:其他好文   时间:2019-05-23 00:09:14    阅读次数:110
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!