5.1 模型融合目标 对于多种调参完成的模型进行模型融合。 完成对于多种模型的融合,提交融合结果并打卡。 5.2 内容介绍 模型融合是比赛后期一个重要的环节,大体来说有如下的类型方式。 简单加权融合: 回归(分类概率):算术平均融合(Arithmetic mean),几何平均融合(Geometric ...
分类:
其他好文 时间:
2020-04-05 13:14:26
阅读次数:
62
非最大抑制,挑选和目标重叠框 yolo思想原理 待办https://blog.csdn.net/shuzfan/article/details/52711706根据分类器类别分类概率做排序,(框的类别排序)搜索局部最大值,抑制不是最大的元素。非最大抑制为什么box bunding要做回归,因为box... ...
分类:
其他好文 时间:
2020-02-27 20:49:49
阅读次数:
66
吉布斯采样 (Gibbs Sampling) 首先选取概率向量的一个维度,给定其他维度的变量值当前维度的值,不断收敛来输出待估计的参数。具体地 1.随机给每一篇文档的每一个词 ww,随机分配主题编号 zz2.统计每个主题 zizi 下出现字 ww 的数量,以及每个文档 nn 中出现主题 zizi 中 ...
分类:
其他好文 时间:
2019-12-31 17:07:00
阅读次数:
208
习题 $2.1$ 数据集包含 $1000$ 个样本, 其中 $500$ 个正例、$500$ 个反例, 将其划分为包含 $70\%$ 样本的训练集和 $30\%$ 样本的测试集用于留出法评估, 试估算共有多少种划分方式. 如果划分要保证正例和反例一样多的话, 那么划分方式数量 $n$ 有 $$\beg ...
分类:
其他好文 时间:
2019-12-31 01:20:41
阅读次数:
214
在这之前强调下极大值、最大值的区别:在一个函数曲线中,极大值可以有多个,最大值只有一个。所有非极大值抑制是抑制不是极大值的部分。 算法思想: 非极大值抑制的方法是:先假设有6个矩形框,根据分类器的类别分类概率做排序,假设从小到大属于车辆的概率 分别为A、B、C、D、E、F。 (1)从最大概率矩形框F ...
分类:
其他好文 时间:
2019-12-12 12:58:22
阅读次数:
93
论文地址:https://arxiv.org/pdf/1406.4729.pdf 论文翻译请移步:http://www.dengfanxin.cn/?p=403 一、背景: 传统的CNN要求输入图像尺寸是固定的(因为全连接网络要求输入大小是固定的) crop处理,可能不包含整个物体,还会丢失上下文信 ...
分类:
Web程序 时间:
2019-02-22 12:02:04
阅读次数:
821
1. 朴素贝叶斯: 条件概率在机器学习算法的应用。理解这个算法需要一点推导。不会编辑公式。。 核心就是 在已知训练集的前提条件下,算出每个特征的概率为该分类的概率, 然后套贝叶斯公式计算 预测集的所有分类概率,预测类型为概率最大的类型 ...
分类:
系统相关 时间:
2018-11-27 20:59:39
阅读次数:
196
一 分类概述 二 分类实例 现在我们以宝可梦为例,宝可梦共有18中属性,如下: 上边的宝可梦输入是形象化的表示,我们应该讲宝可梦以计算机可以识别的数值进行输入 那么可能我们会问,为什么我们要预测宝可梦的类型呢,这是因为不同类型的宝可梦相遇时,他们是有属性相克的关系。 那么如何分类呢?我们之前提到过r ...
分类:
其他好文 时间:
2018-07-31 13:25:22
阅读次数:
166
ROC和AUC介绍以及如何计算AUC from:http://alexkong.net/2013/06/introduction-to-auc-and-roc/ ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary clas ...
分类:
其他好文 时间:
2018-06-06 15:49:30
阅读次数:
190
一、输出层结构 注意到,huffman树的每一层,都有参数和激活函数sigmoid存在,实际上是一个神经网络。影响该节点的二分类走向。这和一般的多分类问题中,各种分类是同处于平等的最后一层,是不同的。 二、模型推导 我们重点关注输出层huffman树过程的模型推导。对于每个走到huffman树根节点 ...
分类:
其他好文 时间:
2018-05-12 13:16:36
阅读次数:
166