softmax回归用来解决K类分类问题,其实就是logistic回归的扩展。注意:1.对于sigmod函数g(x),当x∈[-1,1]时效果比较好。所以先把样本数据进行归一化(本例中就是对每一个数都除以10)2.这次的参数θ不再是一维的向量了而是二维的矩阵: tt[1..CLS][1..LEN] ....
分类:
其他好文 时间:
2015-06-20 00:19:19
阅读次数:
278
LibLinear(SVM包)使用说明之(三)实践LibLinear(SVM包)使用说明之(三)实践zouxy09@qq.comhttp://blog.csdn.net/zouxy09我们在UFLDL的教程中,Exercise: Convolution and Pooling这一章节,已经得到了cn...
分类:
其他好文 时间:
2015-06-19 18:15:07
阅读次数:
155
题目如下:
Exercise 1.3. Define a procedure that takes three numbers as arguments and returns the sum of the
squares of the two larger numbers.
看到题目后,我个傻逼就严格遵循题意去解题了,在三个数中找到前两个大数,求其和。(解完后看网上的答...
分类:
其他好文 时间:
2015-06-19 16:57:49
阅读次数:
113
代码: 1 import numpy as np 2 import csv 3 import math as mt 4 5 def hypo(tt,xx): #hypothesis函数 6 exp=mt.e 7 tmp=0.0 8 for i in range...
分类:
其他好文 时间:
2015-06-14 18:11:23
阅读次数:
141
1.梯度下降1.1批梯度下降eg1:用梯度下降法确定h(x)=x^2-t*x-t中参数t的值注意迭代因子的选择很重要QAQ,如果程序结果成了发散的就要看看是不是迭代因子选的不好。【最后那个-0.01是无意中试出来的QwQ 1 def hypo(t,x): #precise answ...
分类:
编程语言 时间:
2015-06-11 22:29:39
阅读次数:
145
这个exercise需要完成cnn中的forward pass,cost,error和gradient的计算。需要弄清楚每一层的以上四个步骤的原理,并且要充分利用matlab的矩阵运算。大概把过程总结了一下如下图所示:STEP 1:Implement CNN ObjectiveSTEP 1a: Fo...
分类:
Web程序 时间:
2015-05-30 12:03:11
阅读次数:
220
8.1 8.2
/*
* c++ primer exercise.
* test file.
*/
#include
using namespace std;
istream & read_write(istream &in)
{
// char cval;
int ival;
while(in>>ival)
cout<<ival<<' ';
...
分类:
编程语言 时间:
2015-05-25 18:45:40
阅读次数:
178
今天太长姿势了,什么叫懂了也写不出代码说的不就是我吗,就那么几行代码居然叽叽歪歪写了一个小时。首先exercise要实现的是softmax的cost function和gradient,如下图:(1)(2)(3)下面就来仔细分析怎么不借助for循环高效的实现上面三个函数。首先P是一个关键,因为在J和...
分类:
其他好文 时间:
2015-05-23 16:43:39
阅读次数:
187
斯坦福deep learning教程中的自稀疏编码器的练习,主要是参考了 http://www.cnblogs.com/tornadomeet/archive/2013/03/20/2970724.html,没有参考肯定编不出来。。。Σ( ° △ °|||)︴ 也当自己理解了一下这里的自稀疏编码器,...
分类:
Web程序 时间:
2015-05-22 16:24:14
阅读次数:
272
Description
Consider the following exercise, found in a generic linear algebra textbook.
Let A be an n × n matrix. Prove that the following statements are equivalent:
A is invertible. Ax = b h...
分类:
其他好文 时间:
2015-05-14 08:47:37
阅读次数:
111