【理解triple】
【理解triple loss】
【triple loss 梯度推导】
【算法实现的小提示】...
分类:
其他好文 时间:
2015-07-07 14:52:35
阅读次数:
1567
高数里面有提到梯度的概念,重温一下。 梯度:设函数z=f(x,y)在平面区域D内有一街连续偏导数,则函数在D内的每一个点P(x,y)处的梯度为 梯度下降:利用负梯度方向决定每次迭代的方向,从而使目标函数逐步减小。梯度下降法又称为最速下降法。 简单形式:x(k+1)=x(k)-a*...
分类:
其他好文 时间:
2015-07-06 19:49:16
阅读次数:
123
场景: 可以尝试使用shape的xml文件来代替图片。 可以起到减小包大小的效果。Android Button Maker是一个可以在线生成按钮代码的工具。Android API提供了XML文件定义的几何形状的Drawable资源,包括颜色、边界和梯度。这些按钮的生成是基于drawable形态的XM...
分类:
其他好文 时间:
2015-07-05 16:24:34
阅读次数:
129
Gradient Descent续上文。
gradient descent的用途:
可以用于求解一个函数f(x1,x2,......xn)f(x_1,x_2,......x_n)的local 最小值。
关于local最小值:
一个函数可能有多个local最小值,所谓local最小值是当(x1,x2,......xnx_1,x_2,......x_n)的某一个实例,当在的该实例的无限小的附近...
分类:
编程语言 时间:
2015-07-05 15:11:33
阅读次数:
173
为什么要了解点数学基础学习大数据分布式计算时多少会涉及到机器学习的算法,所以理解一些机器学习基础,有助于理解大数据分布式计算系统(例如spark)的设计。机器学习中一个常见的就是gradient descent算法,是线性回归问题的一个基础算法。gradient是数学概念。Gradient假设一个函数有n个自变量:f(x1,x2......xn)f(x_1,x_2......x_n),且每个x都是标...
分类:
编程语言 时间:
2015-07-05 09:40:29
阅读次数:
147
前言
从linux camera驱动, 到qcom平台 camera图像效果,再到opencv图像处理,终于进入本篇的机器学习的开始。
前路漫漫,吾只愿风雨兼程。
简介
本篇开始是学习机器学习的第一篇,本章主要是使用opencv,用c语言实现机器学习之一元线性回归、梯度下降法。
关于这部分的原理,可以参考: 1、 http://studentdeng.github.io/blo...
分类:
其他好文 时间:
2015-07-03 15:46:50
阅读次数:
178
从上一篇可知,在监督学习里最重要的就是确定假想函数h(θ),即通过使得代价函数J(θ)最小,从而确定h(θ).
上一篇通过梯度下降法求得J(θ)最小,这篇我们将使用矩阵的方法来解释。
1、普通最小二乘法
利用矩阵的方式,m个训练集(x,y)可以如下表示:
因此,所以
根据 可知,
为使J(θ)最小,通过求导推导可得:
...
分类:
其他好文 时间:
2015-07-02 12:09:01
阅读次数:
207
关注了Q18~Q20三道编程作业题。这三道题都与Logistic Regression相关。Q18~19是用全量梯度下降实现Logistic Regression;Q20要求用随机梯度下降实现Logistic Regression。这三题的代码都何在一个py文件中了。个人觉得,这道题的程序设计,完全...
分类:
其他好文 时间:
2015-06-28 16:49:11
阅读次数:
266
Learning前面,我们介绍了神经网络的构成,数据的预处理,权值的初始化等等。这一讲,我们将要介绍神经网络参数学习的过程。Gradient Checks梯度的运算,在理论上是简单的,但是在实际的应用中,却非常容易出错,梯度的运算常见的有如下两种形式:形式一:
df(x)dx=f(x+h)?f(x)h
\frac{df(x)}{dx}=\frac{f(x+h)-f(x)}{h}
hh是一个很小...
分类:
Web程序 时间:
2015-06-28 12:44:02
阅读次数:
224
%% 方法一:梯度下降法x = load('E:\workstation\data\ex3x.dat');y = load('E:\workstation\data\ex3y.dat');x = [ones(size(x,1),1) x];meanx = mean(x);%求均值sigmax = s...
分类:
其他好文 时间:
2015-06-27 19:50:56
阅读次数:
124