这一篇文章其实就是记录程序员修炼之道中的所有 Tips, 我讲会在之后的每周实践两个 Tip, 并对这两个 Tips 进行补充和说明自己的体会, 最终成为书中所说的卓有成效的程序员. 这一篇文章其实就是记录程序员修炼之道中的所有 Tips, 我讲会在之后的每周实践两个 Tip, 并对这两个 Tips ...
分类:
其他好文 时间:
2018-04-24 13:56:26
阅读次数:
186
sigmoid(x) 函数定义:\[\begin{align*}\sigma(x) &= \frac{1}{1+e^{-x}} \\\frac{d(\sigma(x))}{dx} &= \sigma(x)(1-\sigma(x))\end{align*}\]逻辑斯谛回归分类模型定义如下:\[\beg... ...
分类:
其他好文 时间:
2018-04-22 18:07:00
阅读次数:
131
一、疑问 1. assignments1 linear_svm.py文件的函数 svm_loss_naive中,使用循环的方式实现梯度计算 linear_svm.py文件的函数 svm_loss_vectorized中,梯度的向量化实现 SVM的损失函数在某个数据点上的计算: 对函数进行微分,比如对 ...
分类:
其他好文 时间:
2018-04-03 12:51:31
阅读次数:
117
常用于大规模稀疏机器学习问题上 1.优点: 高效 简单 2.可以选择损失函数 loss=”hinge”: (soft-margin)线性SVM. loss=”modified_huber”: 带平滑的hinge loss. loss=”log”: logistic回归 3.通过penalty参数,可 ...
分类:
其他好文 时间:
2018-03-29 22:38:29
阅读次数:
920
Sol 这做法我是想不到$TAT$ 每个筐子拆成三个相互连边 球向三个筐子连边 然后跑一般图最大匹配 这三个筐子间最多有一个匹配 那么显然每个球一定会放在一个筐子里,一定有一个匹配 如果筐子间有匹配,则有一个半空的筐子,因为它一定只匹配了小于等于$1$个球 答案为匹配数$ n$ 使答案最大即匹配数最 ...
分类:
其他好文 时间:
2018-03-27 18:40:21
阅读次数:
183
内容:线性回归;逻辑回归,应用场景。 一、线性回归 有监督学习,根据学习样本{x->y},学习一个映射f:X->Y(线性相关),输出预测结果y_i。最简单的例子:y=ax+b 重要组成:训练数据集 training set, 学习算法 learning algorithm, 损失函数 loss fu ...
分类:
其他好文 时间:
2018-03-25 14:27:24
阅读次数:
235
Adaboost推导每一笔样本都必须有一个权重,因此子模型要支持样本可以带权重,亦即在计算误差时可以考虑要本的权重。例如SVM,LR中通过稍微损失函数使得可以考虑样本的权重:SVM(软间隔,硬间隔貌似没有损失函数)是通过在松弛项前面增加权重。相应的,推导后,alpha的上限C也要乘以权重;LR是直接... ...
分类:
其他好文 时间:
2018-03-10 13:53:20
阅读次数:
208
TensorFlow训练神经网络的4个步骤: 1、定义算法公式,即训练神经网络的forward时的计算 2、定义损失函数和选择优化器来优化loss 3、训练步骤 4、对模型进行准确率评测 附Multi-Layer Perceptron代码: 1 from tensorflow.examples.tu ...
分类:
其他好文 时间:
2018-03-06 21:47:21
阅读次数:
147
顾名思义,决策树model是树形结构,在分类中,表示基于特征对实例进行分类的过程。可以人为是“if-else”的合集,也可以人为是特征空间,类空间上条件概率分布。主要优点是分类速度快,可读性好。在学习时(training)根据loss function最小化原则建立决策树model,预测时对新数据利 ...
分类:
其他好文 时间:
2018-03-05 23:36:03
阅读次数:
333
https://stackoverflow.com/questions/41032551/how-to-compute-receiving-operating-characteristic-roc-and-auc-in-keras https://github.com/keras-team/kera ...
分类:
其他好文 时间:
2018-03-04 17:10:36
阅读次数:
1623