从Ⅱ到Ⅳ都在讲的是线性回归,其中第Ⅱ章讲得是简单线性回归(simple linear regression, SLR)(单变量),第Ⅲ章讲的是线代基础,第Ⅳ章讲的是多元回归(大于一个自变量)。 本文的目的主要是对Ⅱ章中出现的一些算法进行实现,适合的人群为已经看完本章节Stanford课程的学者。本人...
分类:
其他好文 时间:
2014-08-14 19:42:19
阅读次数:
216
using System;using System.Collections.Generic;using System.Text;using AForge.Neuro;using AForge.Neuro.Learning;using System.IO;using System.Runtime.Se...
分类:
Web程序 时间:
2014-08-14 19:26:49
阅读次数:
307
When learning the usage of map collection in java, I found serveral beneficial methods that was encountered in the daily life. Now I made a summary:
[java] view
plaincopy
i...
分类:
编程语言 时间:
2014-08-14 01:30:28
阅读次数:
207
监督学习(supervised learning)的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测,计算机的基本操作就是给定一个输入产生一个输出。基本概念:输入空间、特征空间与输出空间 在监督学习中,将输入与输出所有可能取值的集合分别称为输入空间(input sp.....
分类:
其他好文 时间:
2014-08-14 01:05:47
阅读次数:
421
学习笔记之《CNN: Single-label to Multi-label》...
分类:
其他好文 时间:
2014-08-13 19:03:37
阅读次数:
502
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。
稀疏编码器是用来无监督学习的,使用无标签数据。
Softmax回归分类器是有监督学习,使用标签数据。
实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片)
难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)
如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:
其他好文 时间:
2014-08-13 13:03:36
阅读次数:
493
;;?learning?The?Little?Schemer
(def?car?first)
(def?cdr?rest)
(def?cons?clojure.core/cons)
(def?eq??=)
(def?list??clojure.core/list?)
(defn?atom??[x]
??(not?(list??x)))
(defn...
分类:
其他好文 时间:
2014-08-13 10:44:55
阅读次数:
303
http://www.mums.ac.ir/shares/hit/eduhit/book/windowsscripting.pdfhttp://support.microsoft.com/kb/926352/en-ushttps://www.microsoft.com/learning/en-us/...
学习笔记之《Some Improvements on Deep Convolutional Neural Network Based Image Classif ication》...
分类:
Web程序 时间:
2014-08-12 17:20:15
阅读次数:
334
Softmax回归就是推广版本的逻辑回归。
只不过逻辑回归是个2分类问题,而Softmax是多分类问题,仅此而已。
Softmax回归在2分类情况下就蜕化成了逻辑回归。
逻辑回归的代价函数
考虑到权重衰减,修改一下就是Softmax回归的代价函数了
这里的权重衰减项是必须的,因为原先的代价函数不是严格凸函数,有无穷个极小值。现在加了这个权重衰减项,函数变成了严格凸函数。L...
分类:
数据库 时间:
2014-08-12 17:10:34
阅读次数:
502