本笔记为Coursera在线课程《Machine Learning》中的神经网络章节的笔记。八、神经网络:表述(Neural Networks: Representation) 本节主要讨论一种叫做神经网络的机器学习算法。首先讨论神经网络的表层结构,在后续的课程中再讨论具体的学习算法。神经网络其实是...
分类:
系统相关 时间:
2015-08-06 21:55:00
阅读次数:
196
本笔记为吴恩达机器学习在线课程笔记,课程网址(https://www.coursera.org/learn/machine-learning/)2.1 模型表示参考视频: 2 - 1 - Model Representation (8 min).mkv 本课程讲解的第一个算法为"回归算法",本节将要...
分类:
其他好文 时间:
2015-08-06 20:16:29
阅读次数:
227
参考:https://codesachin.wordpress.com/2015/08/05/on-the-biasvariance-tradeoff-in-machine-learning/ 之前一直没搞明白什么是bias,什么是variance,现在看看这篇博文。 当你的模型太简单...
分类:
系统相关 时间:
2015-08-06 09:24:59
阅读次数:
371
接上篇:
def xgboost_pred(train,labels,test):
params = {}
params["objective"] = "reg:linear"
params["eta"] = 0.005
params["min_child_weight"] = 6
params["subsample"] = 0.7
params["colsample...
分类:
编程语言 时间:
2015-08-06 00:42:08
阅读次数:
2984
import pandas as pd
import numpy as np
from sklearn import preprocessing
from keras.models import Sequential
from keras.layers.core import Dense, Activation, Dropout
# load training and test datasets...
分类:
编程语言 时间:
2015-08-04 21:12:47
阅读次数:
266
三张表;train_set.csv;test_set.csv;feature.csv。三张表通过object_id关联。
import pandas as pd
import numpy as np
# load training and test datasets
train = pd.read_csv('../input/train_set.csv')
test = pd.re...
分类:
编程语言 时间:
2015-08-02 18:18:32
阅读次数:
229
Keywords: PR curve, ROC curve, Machine Learning, image processing
为了帮助大家理解,比如我们需要检测一个图像中的人,分类器将图像上的每个像素划分为人和非人像素,目标是人,所以检测为人的像素用Positives表示,检测为非人的像素用Negatives来表示,检测到了需要报告,检测到不是需要拒绝,检测到了实际不是则为误报(错误地报告)或...
分类:
其他好文 时间:
2015-08-01 19:06:21
阅读次数:
387
本小节阅读:
MLAPP:第三章
CS229:Naive bayes
贝叶斯概念学习
我们考虑一个小孩学习一个词的过程,比如“狗”。大概是小孩的父母指出了这个词的一些正例,比如说:“看那条可爱的狗”或者“记住那条小狗”等等。然而,他们是不太可能提供如“看那条不是狗的东西”的负例。当然,负例也可能在动态学习的过程中接触到,比如父母可能纠正小孩的错误:“那是一只猫,不是一条狗。” —...
分类:
系统相关 时间:
2015-08-01 19:03:59
阅读次数:
374
Josephina is a clever girl and addicted to Machine Learning recently. Shepays much attention to a method called Linear Discriminant Analysis, whichhas...
分类:
其他好文 时间:
2015-08-01 17:00:35
阅读次数:
118
信息论
熵
如果离散随机变量有P(X)分布,那么x所携带的熵(信息量):
之所以用log2来作为底,是为了方便衡量该信息可以用多少bit来表示。因为1个bit非0即1. 从上公式可以推导出:当k个状态发生的几率一样时,随机变量X所携带的熵越大。正如下图表示的伯努利分布所携带的熵随着概率变化的结果:
KL divergence
KL divergence 全称Kullbac...
分类:
系统相关 时间:
2015-07-31 20:28:17
阅读次数:
333