码迷,mamicode.com
首页 >  
搜索关键字:超参数    ( 130个结果
《深度学习》圣经"花书"经验法则中文版!
作者:Jeff Macaluso https://jeffmacaluso.github.io/post/DeepLearningRulesOfThumb/ 转自CVer,仅用作个人学习 当我在研究生期间,第一次学习神经网络时,我问我的教授是否有任何关于选择架构和超参数的经验法则。他的回答是:“嗯, ...
分类:其他好文   时间:2019-05-02 15:48:41    阅读次数:139
论文阅读 | FCOS: Fully Convolutional One-Stage Object Detection
论文阅读——FCOS: Fully Convolutional One-Stage Object Detection 概述 目前anchor-free大热,从DenseBoxes到CornerNet、ExtremeNet,以及最近的FSAF、FoveaBox,避免了复杂的超参数设计,而且具有很好的检 ...
分类:其他好文   时间:2019-04-30 15:30:26    阅读次数:541
Tensorflow流程
1. 导入/生成样本数据集 2. 转换和归一化数据 3. 划分样本数据集为训练样本集、测试样本集和验证样本集 4. 设置机器学习参数(超参数) 5. 初始化变量和占位符 6. 定义模型结构 7. 声明损失函数 8. 初始化模型和训练模型 9. 评估机器学习模型 10. 调优超参数 11. 发布/预测 ...
分类:其他好文   时间:2019-04-20 15:40:37    阅读次数:135
KNN算法网格搜索最优参数
主要用到 sklearn.model_selection包下的GridSearchCV类。 总共分为几步: a.创建训练集和测试集 b.创建最优参数字典 c.构建GridSearchCV对象 d.进行数据训练 e.得出最优超参数 a.创建训练集和测试集 b.创建最优参数字典 c.构建GridSear ...
分类:编程语言   时间:2019-04-07 15:42:43    阅读次数:218
sklearn中的降维算法PCA和SVD
sklearn中的降维算法PCA和SVD 1 概述 1.1 从什么叫“维度”说开来 1.2 sklearn中的降维算法 2 PCA与SVD 2.1 降维究竟是怎样实现? 2.2 重要参数n_components 2.2.1 迷你案例:高维数据的可视化 2.2.2 最大似然估计自选超参数 2.2.3 ...
分类:编程语言   时间:2019-03-19 10:41:12    阅读次数:1183
tensorflow的hello world
import tensorflow as tf;from tensorflow.examples.tutorials.mnist import input_data##定义网络结构input_nodes = 784output_nodes = 10layer1_nodes = 500#定义超参数#自 ...
分类:其他好文   时间:2019-03-01 12:19:24    阅读次数:134
pytorch 7 optimizer 优化器 加速训练
超参数设置 数据 4种优化器的训练过程的loss变化,下降的越快越好 END ...
分类:其他好文   时间:2019-02-26 21:04:20    阅读次数:277
模型训练与优化
数据集拆分 交叉验证 网格搜索 通常情况下,有很多参数是需要手动指定的(如k-近邻算法中的K值), 这种叫超参数。但是手动过程繁杂,所以需要对模型预设几种超参数组 合。每组超参数都采用交叉验证来进行评估。最后选出最优参数组合建 立模型。 精确率(Precision)与召回率(Recall) ...
分类:其他好文   时间:2019-01-29 18:31:07    阅读次数:231
Hyperparameters
参数是机器学习算法的关键。它们通常由过去的训练数据中总结得出。在经典的机器学习文献中,我们可以将模型看作假设,将参数视为对特定数据集的量身打造的假设。 模型是否具有固定或可变数量的参数决定了它是否可以被称为“参数”或“非参数”。 模型参数是根据数据自动估算的。但模型超参数是手动设置的,并且在过程中用 ...
分类:其他好文   时间:2019-01-23 01:27:52    阅读次数:215
机器学习 —— 用于超参数随机化搜索的几个分布
机器学习中超参数搜索的常用方法为 Grid Search,然而如果参数一多则容易碰到维数诅咒的问题,即参数之间的组合呈指数增长。如果有 $m$ 个参数,每个有 $n$ 个取值,则时间复杂度为 $\Theta(n^m)$。 Bengio 等人在 " 《Random Search for Hyper P ...
分类:其他好文   时间:2019-01-21 21:07:10    阅读次数:1307
130条   上一页 1 ... 4 5 6 7 8 ... 13 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!