码迷,mamicode.com
首页 >  
搜索关键字:训练数据    ( 761个结果
人工智能--第二天--KNN算法
一、概述 1.概念:K近邻(k-Nearest Neighbor, 简称KNN)算法是一种非常简单的机器学习监督算法。 2.主要思想:即时给定一个训练数据集,对于新的数据样本,在训练集中找到与该样本最邻近的k个样本,统计这k个样本的多数所属类,就把这个样本归结到这个所属类中。 3.根据维基百科的图解 ...
分类:编程语言   时间:2020-02-23 14:42:46    阅读次数:66
Anomaly Detection
这里我要强调一下什么叫做异常,机器到底要看到什么就是Anormaly。其实是取决你提供给机器什么样的训练数据 应用 1.若你有一个classifier,你希望这个classifier具有:看到不知道的数据会标上这是未知物的能力,这算是异常侦测的其中一种,又叫做Open-set Recognition ...
分类:其他好文   时间:2020-02-21 14:44:30    阅读次数:57
【阿里云新人赛】恶意程序检测-项目实践总结
1. 比赛信息 比赛地址: "阿里云恶意程序检测新人赛" 比赛介绍:使用自然语言处理的方法对恶意程序的行为(API调用序列)进行分析,实现对恶意程序鉴别及分类。 2. 我的主要工作 1)数据预处理:格式转换csv txt pkl,根据fileid分组数据,排序后生成api序列,用于训练; 2)数据分 ...
分类:其他好文   时间:2020-02-20 13:37:04    阅读次数:76
Task03 打卡
模型过拟合欠拟合 训练误差和泛化误差 训练误差 指模型在训练数据集上表现出的误差 泛化误差 指模型在任意?个测试数据样本上表现出的误差的期望 我们的注意力应集中于降低泛化误差,使模型具有更好的普适性。 模型选择 验证数据集 (validation set) 预留?部分在训练数据集和测试数据集以外的数 ...
分类:其他好文   时间:2020-02-19 21:02:57    阅读次数:72
机器学习(ML)七之模型选择、欠拟合和过拟合
训练误差和泛化误差 需要区分训练误差(training error)和泛化误差(generalization error)。前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函 ...
分类:其他好文   时间:2020-02-15 13:40:33    阅读次数:65
动手学pytorch-过拟合、欠拟合
过拟合、欠拟合及其解决方案 1. 过拟合、欠拟合的概念 2. 权重衰减(通过l2正则化惩罚权重比较大的项) 3. 丢弃法(drop out) 4. 实验 1.过拟合、欠拟合的概念 1.1训练误差和泛化误差 前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并 ...
分类:其他好文   时间:2020-02-15 11:52:09    阅读次数:109
动手学深度学习 3-5 Others
其他问题 1. 模型选择、欠拟合和过拟合 1.1 训练误差和泛化误差 1.2 模型选择 1.2.1 验证数据集 1.2.2 $K$ 折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是$K$折交叉验证($K$ fold cross valida ...
分类:其他好文   时间:2020-02-06 23:24:59    阅读次数:101
吴恩达深度学习课程第一课 — 神经网络与深度学习 — 第三周练习
第三周 浅层神经网络 第 21 题 以下哪项是正确的?(选出所有正确项) A.$a^{ "2" }$是第12层,第2个训练数据的激活向量 B.$X$是一个矩阵,其中每个列是一个训练数据 C.$a^{[2]}_4$是第2层,第4个训练数据的激活输出 D.$a^{[2]}_4$是第2层,第4个神经元的激 ...
分类:其他好文   时间:2020-02-04 13:46:02    阅读次数:216
MachineLearning入门-1
机器学习的算法分为两大类:监督学习和无监督学习。 监督学习即在机器学习的过程中提供对错指示。一般是在数据组中包含最终结果(0,1),通过算法让机器减少误差。这一类学习主要应用于分类与预测(Regression & Classify)。监督学习从给定的训练数据集中学习出一个目标函数,当新的数据到来时, ...
分类:系统相关   时间:2020-02-01 12:42:08    阅读次数:85
4.朴素贝叶斯法
朴素贝叶斯(naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集, 首先基于特征条件独立假设学习输入/输出的联合概率分布; 然后基于此模型, 对给定的输入x, 利用贝叶斯定理求出后验概率最大的输出y。 朴素贝叶斯法实现简单, 学习与预测的效率都很高, 是一种 ...
分类:其他好文   时间:2020-01-31 14:09:31    阅读次数:96
761条   上一页 1 ... 7 8 9 10 11 ... 77 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!