考虑一个二分类的情况,类别为1和0,我们将1和0分别作为正类(positive)和负类(negative),则实际分类的结果有4种,表格如下(混淆矩阵): 真实情况 预测结果 正例 反例 正例 TP(真正例) FN(假反例) 反例 FP(假正例) TN(真反例) 敏感性Sensitivity (Se ...
分类:
其他好文 时间:
2019-06-29 22:21:01
阅读次数:
475
● bagging和boosting的区别 参考回答: Bagging是从训练集中进行子抽样组成每个基模型所需要的子训练集,然后对所有基模型预测的结果进行综合操作产生最终的预测结果。 Boosting中基模型按次序进行训练,而基模型的训练集按照某种策略每次都进行一定的转化,最后以一定的方式将基分类器 ...
分类:
编程语言 时间:
2019-06-03 21:52:50
阅读次数:
156
● 分层抽样的适用范围 参考回答: 分层抽样利用事先掌握的信息,充分考虑了保持样本结构和总体结构的一致性,当总体由差异明显的几部分组成的时候,适合用分层抽样。 ● LR的损失函数 参考回答: M为样本个数,为模型对样本i的预测结果,为样本i的真实标签。 ● LR和线性回归的区别 参考回答: 线性回归 ...
分类:
编程语言 时间:
2019-06-03 21:45:15
阅读次数:
198
论文阅读:Adaptive Fusion for RGB-D Salient Object Detection 这篇代码的创新点在于使用了SW层,使用SW_logits * img_logits + (1 - SW_logits) * (1 - depth_logits) 来获得最终的预测结果 另外 ...
分类:
其他好文 时间:
2019-05-06 01:17:48
阅读次数:
168
集成模型 集成分类模型是综合考量多个分类器的预测结果,从而做出决策。 综合考量的方式大体分为两种: 1.利用相同的训练数据同时搭建多个独立的分类模型,然后通过投票的方式,以少数服从多数的原则作出最终的分类决策。(随机森林分类器) 2.按照一定次序搭建多个分类模型。这些模型之间彼此存在依赖关系。一般而 ...
分类:
编程语言 时间:
2019-03-17 00:54:09
阅读次数:
250
cifar神经网络的代码说明: 数据主要分为三部分: 第一部分:数据的准备 第二部分:神经网络模型的构造,返回loss和梯度值 第三部分:将数据与模型输入到函数中,用于进行模型的训练,同时进行验证集的预测,来判断验证集的预测结果,保留最好的验证集结果的参数组合 第一部分:数据的准备 第一步:构造列表 ...
分类:
其他好文 时间:
2019-03-07 00:45:43
阅读次数:
233
# Print accuracy predictions = predict(parameters, X) # (np.dot(Y, predictions.T) + np.dot(1 - Y, 1 - predictions.T)) / Y.size print ("Accuracy: {} %"... ...
分类:
其他好文 时间:
2019-01-24 01:18:38
阅读次数:
171
一、从LR到决策树 1.总体流程与核心问题 (1)决策树是基于树的结构进行决策: 每个“内部节点”对应于某个属性上的“测试” 每个分支对应于该测试的一种可能结果(即该属性上的每个取值) 每个叶节点对应于一个预测结果 (2)学习过程:通过对训练样本的分析来确定“划分属性”(即内部节点所对应的属性) ( ...
分类:
其他好文 时间:
2019-01-12 13:14:55
阅读次数:
202
GBDT又叫梯度提升决策树,它也属于Boosting框架。GBDT核心原理如下: 如图所示,用GBDT预测年龄,第一轮,预测到年龄为20,它和真实值之间的残差为10,第二轮,GBDT开始预测上一轮的残差10,预测结果为6,这一轮 的残差为4,第三轮,以年龄4为预测目标,预测来的值为3,和真实值之间相 ...
分类:
编程语言 时间:
2019-01-11 15:13:33
阅读次数:
288
实例要求:以sklearn库自带的iris数据集为例,使用sklearn估计器构建K-Means聚类模型,并且完成预测类别功能以及聚类结果可视化。 实例代码: 实例结果: 构建的K-Means模型为: 花瓣预测结果: 聚类结果可视化: ...
分类:
其他好文 时间:
2018-12-27 22:52:10
阅读次数:
294