码迷,mamicode.com
首页 >  
搜索关键字:machine-learning    ( 1129个结果
Coursera《machine learning》--(8)神经网络表述
本笔记为Coursera在线课程《Machine Learning》中的神经网络章节的笔记。八、神经网络:表述(Neural Networks: Representation) 本节主要讨论一种叫做神经网络的机器学习算法。首先讨论神经网络的表层结构,在后续的课程中再讨论具体的学习算法。神经网络其实是...
分类:系统相关   时间:2015-08-06 21:55:00    阅读次数:196
二、单变量线性回归(Linear Regression with One Variable)
本笔记为吴恩达机器学习在线课程笔记,课程网址(https://www.coursera.org/learn/machine-learning/)2.1 模型表示参考视频: 2 - 1 - Model Representation (8 min).mkv 本课程讲解的第一个算法为"回归算法",本节将要...
分类:其他好文   时间:2015-08-06 20:16:29    阅读次数:227
On the Bias/Variance tradeoff in Machine Learning
参考:https://codesachin.wordpress.com/2015/08/05/on-the-biasvariance-tradeoff-in-machine-learning/ 之前一直没搞明白什么是bias,什么是variance,现在看看这篇博文。 当你的模型太简单...
分类:系统相关   时间:2015-08-06 09:24:59    阅读次数:371
machine learning in coding(python):使用xgboost构建预测模型
接上篇: def xgboost_pred(train,labels,test): params = {} params["objective"] = "reg:linear" params["eta"] = 0.005 params["min_child_weight"] = 6 params["subsample"] = 0.7 params["colsample...
分类:编程语言   时间:2015-08-06 00:42:08    阅读次数:2984
machine learning in coding(python):根据关键字合并feature,删除无用feature,转化为numpy数组
import pandas as pd import numpy as np from sklearn import preprocessing from keras.models import Sequential from keras.layers.core import Dense, Activation, Dropout # load training and test datasets...
分类:编程语言   时间:2015-08-04 21:12:47    阅读次数:266
machine learning in python:根据关键字合并多个表(构建组合feature)
三张表;train_set.csv;test_set.csv;feature.csv。三张表通过object_id关联。 import pandas as pd import numpy as np # load training and test datasets train = pd.read_csv('../input/train_set.csv') test = pd.re...
分类:编程语言   时间:2015-08-02 18:18:32    阅读次数:229
图像检测经典的评估方式——PR曲线,ROC曲线
Keywords: PR curve, ROC curve, Machine Learning, image processing 为了帮助大家理解,比如我们需要检测一个图像中的人,分类器将图像上的每个像素划分为人和非人像素,目标是人,所以检测为人的像素用Positives表示,检测为非人的像素用Negatives来表示,检测到了需要报告,检测到不是需要拒绝,检测到了实际不是则为误报(错误地报告)或...
分类:其他好文   时间:2015-08-01 19:06:21    阅读次数:387
CS281: Advanced Machine Learning 第二节 Generative model
本小节阅读: MLAPP:第三章 CS229:Naive bayes 贝叶斯概念学习 我们考虑一个小孩学习一个词的过程,比如“狗”。大概是小孩的父母指出了这个词的一些正例,比如说:“看那条可爱的狗”或者“记住那条小狗”等等。然而,他们是不太可能提供如“看那条不是狗的东西”的负例。当然,负例也可能在动态学习的过程中接触到,比如父母可能纠正小孩的错误:“那是一只猫,不是一条狗。” —...
分类:系统相关   时间:2015-08-01 19:03:59    阅读次数:374
HDU3714——三分——Error Curves
Josephina is a clever girl and addicted to Machine Learning recently. Shepays much attention to a method called Linear Discriminant Analysis, whichhas...
分类:其他好文   时间:2015-08-01 17:00:35    阅读次数:118
CS281: Advanced Machine Learning 第二节 information theory 信息论
信息论 熵 如果离散随机变量有P(X)分布,那么x所携带的熵(信息量): 之所以用log2来作为底,是为了方便衡量该信息可以用多少bit来表示。因为1个bit非0即1. 从上公式可以推导出:当k个状态发生的几率一样时,随机变量X所携带的熵越大。正如下图表示的伯努利分布所携带的熵随着概率变化的结果: KL divergence KL divergence 全称Kullbac...
分类:系统相关   时间:2015-07-31 20:28:17    阅读次数:333
1129条   上一页 1 ... 78 79 80 81 82 ... 113 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!