计算 IS 时只考虑了生成样本,没有考虑真实数据,即 IS 无法反映真实数据和样本之间的距离,IS 判断数据真实性的依据,源于 Inception V3 的训练集 ImageNet,在 Inception V3 的“世界观”下,凡是不像 ImageNet 的数据,都是不真实的,都不能保证输出一个 s ...
分类:
其他好文 时间:
2020-02-28 13:50:17
阅读次数:
191
下载Fasion-MNIST数据集Fashion-MNIST是一个替代原始的MNIST手写数字数据集的另一个图像数据集。 它是由Zalando(一家德国的时尚科技公司)旗下的研究部门提供。其涵盖了来自10种类别的共7万个不同商品的正面图片。Fashion-MNIST的大小、格式和训练集/测试集划分与... ...
分类:
其他好文 时间:
2020-02-28 12:22:49
阅读次数:
133
BP神经网络实现 以3层网络为例,Python实现; 1.代码框架 主要函数: Init函数:设定InputLayer nodes、HiddenLayer nodes、OutputLayer nodes数量,网络链接权重和学习率; Training函数:学习训练集体样本并优化权重; Query函数: ...
分类:
其他好文 时间:
2020-02-27 20:43:23
阅读次数:
107
为什么使用卷积?(Why convolutions?) 我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接,举例说明一下。 假设有一张32×32×3维度的图片,这 ...
分类:
其他好文 时间:
2020-02-27 20:34:30
阅读次数:
68
单变量线性回归 单变量线性回归指的是只有一个自变量; 线性回归是一种有监督学习,解决的是自变量和因变量之间的关系; 回归指的是因变量是连续性的,而如果因变量是离散型的,则是分类问题。 监督学习算法的工作方式可以用如下这张图表示: 将训练集喂给机器学习算法,输出一个假设函数 h,然后新输入一个自变 x ...
分类:
其他好文 时间:
2020-02-26 16:54:55
阅读次数:
80
深度学习算法对训练数据的胃口很大,当你收集到足够多的带标签数据构成训练集时,算法效果最好。 这导致很多团队用尽一切方法收集数据,然后把它们堆到训练集里,让训练的数据量更大。但是有些数据,甚至是大部分数据,都来自和开发集和测试集不同的分布。所以深度学习时代,越来越多的团队都用和dev set、test ...
分类:
其他好文 时间:
2020-02-25 14:26:24
阅读次数:
59
一、概述 1.概念:K近邻(k-Nearest Neighbor, 简称KNN)算法是一种非常简单的机器学习监督算法。 2.主要思想:即时给定一个训练数据集,对于新的数据样本,在训练集中找到与该样本最邻近的k个样本,统计这k个样本的多数所属类,就把这个样本归结到这个所属类中。 3.根据维基百科的图解 ...
分类:
编程语言 时间:
2020-02-23 14:42:46
阅读次数:
66
优化与深度学习 优化与估计 尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。 优化方法目标:训练集损失函数值 深度学习目标:测试集损失函数值(泛化性) 1 %matplotlib inline 2 import sys 3 import d2lzh1 ...
分类:
其他好文 时间:
2020-02-20 13:14:49
阅读次数:
93
1.概述 回归树就是用树模型做回归问题,每一片叶子都输出一个预测值。预测值一般是该片叶子所含训练集元素输出的均值, 即 𝑐𝑚=𝑎𝑣𝑒(𝑦𝑖|𝑥𝑖∈𝑙𝑒𝑎𝑓𝑚)cm=ave(yi|xi∈leafm)。 2.构建过程 回归树采用平方和损失函数 每次选择一个切分变量j和切分点s ...
分类:
其他好文 时间:
2020-02-19 23:46:37
阅读次数:
75
1 sklearn简介 Scikit learn(sklearn)是机器学习中的第三方模块,封装了常用的机器学习算法,涉及回归、降维、分类以及聚类等,提供python接口。 虽然sklearn容纳的算法众多,但使用其中大多数算法的模式(套路)都是一样的,一般流程如下: 1 引入相关数据(包括训练集与 ...
分类:
其他好文 时间:
2020-02-19 21:14:14
阅读次数:
78