感知器通常用下面的图形表示: x1,x2和x3是输入单元。每个输入单元分别代表一个特征。感知器通常用另外一个输入单元代表一个常用误差项,但是这个输入单元在图形中通常被忽略了。中间的圆圈是一个计算单元,类似神经元的细胞核连接输入单元和计算单元的边类似于树突。每条边是一个权重,或者是一个参数。参数容易解 ...
分类:
其他好文 时间:
2017-09-07 13:36:47
阅读次数:
179
如果是在win环境下,有apache就会有ab.exe,要注意,线下压力测试中,测试机与服务器尽量不要部署在同一台机器,避免测试误差较大。 输入命令:并发100 总请求1000 apache/bin >ab -c 100 -n 5000 http://localhost:88/fpatent/ind ...
分类:
其他好文 时间:
2017-09-07 09:59:22
阅读次数:
119
http://acm.hdu.edu.cn/showproblem.php?pid=3507 Time Limit: 9000/3000 MS (Java/Others) Memory Limit: 131072/65536 K (Java/Others) Problem Description Z ...
分类:
其他好文 时间:
2017-09-05 17:56:36
阅读次数:
186
问题描述 先来看看问题描述。 当我们使用sigmoid funciton 作为激活函数时,随着神经网络hidden layer层数的增加,训练误差反而加大了,如上图所示。 下面以2层隐藏层神经网络为例,进行说明。 结点中的柱状图表示每个神经元参数的更新速率(梯度)大小,有图中可以看出,layer2整 ...
分类:
其他好文 时间:
2017-09-05 11:42:11
阅读次数:
205
犀利的开头 在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能(performance)。然而我们学习一个模型的目的是为了解决实际的问题(或者说是训练数据 ...
分类:
其他好文 时间:
2017-09-05 10:10:06
阅读次数:
306
接下来几天,将把自己最近读的关于图片分类的经典网络模型论文整理一遍。大概做个摘要。这些论文都是在imagenet上1.2 million数据训练出来的。 由于从这些预训练的网络训练的deep feature有良好的泛化能力,可以应用到其他不同的CV问题,而且比传统的hand-craft featur ...
分类:
其他好文 时间:
2017-09-03 14:53:06
阅读次数:
790
当前子树的损失函数: $C_a(T) = C(T) + a|T|$, 其中$C(T)$为对训练数据的预测误差,$|T|$为树的叶子结点数目,反映模型的复杂度。对固定的$a$,一定存在使损失函数$C_a(T)$最小的子树,将其表示为$T_a$, 极端情况,当 $a = 0$时,整体树是最优的,当$a ...
分类:
其他好文 时间:
2017-09-01 20:21:53
阅读次数:
137
机器学习,分为监督学习和无监督学习,监督学习里有回归和分类,分类有线性回归和逻辑回归。 从最简单的线性回归开始: 通过已有数据需要预测的线性方程: 实际值和预测值的误差,求最小误差函数(最小二乘法): 1.梯度下降法: 其中ε是步长,步长越大,下降越快,但是可能到不了局部最小值,步长越小,下降越慢, ...
分类:
其他好文 时间:
2017-09-01 00:59:55
阅读次数:
592
(1)灵敏度:输出增量与所加的负荷增量之比。通常每输入1V电压时额定输出的mV。本公司产品与其它公司产品配套时,其灵敏系数必须一致。 (2)滞后:滞后的通俗意思是:逐级施加负荷再依次卸下负荷时,对应每一级负荷,理想情况下应有一样的读数,但事实上下一致,这不一致的程度用滞后误差这一指标来表示。国标中是 ...
分类:
其他好文 时间:
2017-08-31 14:24:14
阅读次数:
124