码迷,mamicode.com
首页 >  
搜索关键字:优化器    ( 885个结果
hive 调优
1,hive架构 1)client,客户端 2)Driver:驱动器 3)解析器,编译器,优化器,执行器 4)底层默认使用mr作为数据处理引擎 5)元数据,通常配置mysql来存储,这样支持多个客户端的访问 2,hive和传统数据库的比较 相同之处:都拥有类似的查询语言 不同之处: 1)数据存储位置 ...
分类:其他好文   时间:2020-07-21 22:25:52    阅读次数:76
您所不了解的Postgres 10功能:CREATE STATISTICS(译)
原文地址:https://www.citusdata.com/blog/2018/03/06/postgres-planner-and-its-usage-of-statistics/,本文统一将原文中的“planner”译做“优化器” 如果您对Postgres进行了一些性能优化,则可能使用过EXP ...
分类:其他好文   时间:2020-07-16 00:02:27    阅读次数:64
大牛是怎么思考设计SQL优化方案的?(转)
今天我们看看,大牛是怎么思考设计MySQL优化方案的,在进行MySQL的优化之前,必须要了解的就是MySQL的查询过程。很多查询优化工作实际上就是遵循一些原则,让MySQL的优化器能够按照预想的合理方式运行而已。 MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Or ...
分类:数据库   时间:2020-07-08 15:41:24    阅读次数:69
MariaDB · 性能优化 · Extended Keys
MariaDB 10.0.8增加了一种新的执行计划——Extended Keys。 它充分利用了InnoDB的隐藏列来做执行计划,因为我们都知道InnoDB的索引组织表会把主键放在最末尾,所以实际上每个索引最后都包含了主键。 打开和关闭这个优化器选项的命令如下: Enable: set optimi ...
分类:数据库   时间:2020-07-07 23:34:09    阅读次数:66
mysql的日志模块
一条sql执行的过程: 连接器 >分析器 >优化器 >执行器 >存储引擎 #如下图 不建议使用查询缓存的原因: 如果表有数据更新的话,这张表的缓存都会被清空 redo log日志(重做日志): 特性: innodb的引擎层日志,redo log日志大小时固定的(可通过参数设置),可配置日志个数,可重 ...
分类:数据库   时间:2020-07-04 13:30:24    阅读次数:76
【深度学习】Pytorch四步阅读法
Pytorch框架快速入门 前言 找数据定义、找model定义、(找损失函数、优化器定义),主循环代码逻辑 Pytorch框架编写深度学习模型,无非就是按照四步,从这四步出发去剖析和书写代码,可以比较好的提高我们的效率。 基本思想和步骤 四大步骤 1、输入处理模块 (X 输入数据,变成网络能够处理的 ...
分类:其他好文   时间:2020-06-27 14:39:46    阅读次数:69
Pytorch框架学习---(4)优化器Optimizer
介绍了优化器Optimizer的几个基本方法(如:step、zero_grad、state_dict等),以及学习率、动量的概念,最后介绍torch.optim下几种优化函数 ...
分类:其他好文   时间:2020-06-27 00:16:41    阅读次数:110
不会看 Explain执行计划,简历敢写 SQL 优化?
Explain有什么用 当Explain 与 SQL语句一起使用时,MySQL 会显示来自优化器关于SQL执行的信息。也就是说,MySQL解释了它将如何处理该语句,包括如何连接表以及什么顺序连接表等。 表的加载顺序 sql 的查询类型 可能用到哪些索引,哪些索引又被实际使用 表与表之间的引用关系 一 ...
分类:数据库   时间:2020-06-26 13:00:45    阅读次数:71
hive总结
1,hive架构 1)client,客户端 2)Driver:驱动器 3)解析器,编译器,优化器,执行器 4)底层默认使用mr作为数据处理引擎 5)元数据,通常配置mysql来存储,这样支持多个客户端的访问 2,hive和传统数据库的比较 相同之处:都拥有类似的查询语言 不同之处: 1)数据存储位置 ...
分类:其他好文   时间:2020-06-21 13:51:48    阅读次数:57
TensorFlow优化器浅析
本文基于tensorflow-v1.15分支,简单分析下tensorflow中的优化器。 optimizer = tf.train.GradientDescentOptimizer(learning_rate=.05) train_op = optimizer.minimize(loss) 实际上, ...
分类:其他好文   时间:2020-06-20 14:10:14    阅读次数:159
885条   上一页 1 2 3 4 5 6 ... 89 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!