1)概况来讲,任何能够衡量模型预测出来的值h(θ)与真实值y之间的差异的函数都可以叫做代价函数C(θ),如果有多个样本,则可以将所有代价函数的取值求均值,记做J(θ)。因此很容易就可以得出以下关于代价函数的性质: 对于每种算法来说,代价函数不是唯一的; 代价函数是参数θ的函数; 总的代价函数J(θ) ...
分类:
其他好文 时间:
2018-11-08 23:27:30
阅读次数:
272
过拟合:当某个模型过度的学习训练数据中的细节和噪音,以至于模型在新的数据上表现很差,我们称过拟合发生了,通俗点就是:模型在训练集中测试的准确度远远高于在测试集中的准确度。 过拟合问题通常发生在变量特征过多的时候。这种情况下训练出的方程总是能很好的拟合训练数据,也就是说,我们的代价函数可能非常接近于0 ...
分类:
其他好文 时间:
2018-11-07 17:12:04
阅读次数:
207
Lecture6 Logistic Regression 逻辑回归 6.1 分类问题 Classification6.2 假设表示 Hypothesis Representation6.3 决策边界 Decision Boundary6.4 代价函数 Cost Function6.5 简化的代价函数 ...
分类:
其他好文 时间:
2018-10-31 10:33:47
阅读次数:
191
Lecture6 Logistic Regression 逻辑回归 6.1 分类问题 Classification6.2 假设表示 Hypothesis Representation6.3 决策边界 Decision Boundary6.4 代价函数 Cost Function6.5 简化的代价函数 ...
分类:
其他好文 时间:
2018-10-30 21:10:34
阅读次数:
248
Week 2 Gradient Descent for Multiple Variables 【1】多变量线性模型 代价函数 Answer:AB 【2】Feature Scaling 特征缩放 Answer:D 【】 Answer: 【】 Answer: 【】 Answer: 【】 Answer: ...
分类:
其他好文 时间:
2018-10-28 19:34:11
阅读次数:
186
神经网络及其实现 神经网络的表示 最小的神经网络 两层神经网络 在下图的表示中将参数b放到了中,每一层增加了一个值为1的隐藏单元 X为输入变量 为权重矩阵(所要计算的参数) 为隐藏层变量 g为激活函数 反向传播算法 下面我们从一个简单的例子入手考虑如何从数学上计算代价函数的梯度,考虑如下简单的神经网... ...
分类:
其他好文 时间:
2018-10-26 22:24:09
阅读次数:
329
神经网络的BP推导过程 下面我们从一个简单的例子入手考虑如何从数学上计算代价函数的梯度,考虑如下简单的神经网络,该神经网络有三层神经元,对应的两个权重矩阵,为了计算梯度我们只需要计算两个偏导数即可: 首先计算第二个权重矩阵的偏导数,即 首先需要在之间建立联系,很容易可以看到的值取决于,而,而又是由取... ...
分类:
其他好文 时间:
2018-10-26 22:10:22
阅读次数:
367
为什么交叉熵可以用于计算代价函数 通用的说,熵(Entropy)被用于描述一个系统中的不确定性(the uncertainty of a system)。在不同领域熵有不同的解释,比如热力学的定义和信息论也不大相同。 要想明白交叉熵(Cross Entropy)的意义,可以从熵(Entropy) -... ...
分类:
其他好文 时间:
2018-10-26 22:05:30
阅读次数:
201
Training Set 训练集 Hypothesis: \[{h_\theta }\left( x \right) = {\theta _0} + \theta {x}\] Notation: θi's: Parameters θi's: 参数 How to choose θi's? 如何选择θi ...
分类:
其他好文 时间:
2018-10-21 12:11:16
阅读次数:
221
1)机器学习模型理解 统计学习,神经网络 2)预测结果的衡量 代价函数(cost function)、损失函数(loss function) 3)线性回归是监督学习 ...
分类:
编程语言 时间:
2018-10-14 22:01:05
阅读次数:
230