这是smooth_L1_loss_layer.cu的前向传播部分 blob的主要变量: blob只是一个基本的数据结构,因此内部的变量相对较少,首先是data_指针,指针类型是shared_ptr,属于boost库的一个智能指针,这一部分主要用来申请内存存储data,data主要是正向传播的时候用的 ...
分类:
其他好文 时间:
2017-06-27 19:55:48
阅读次数:
1443
在讨论CPU的内存屏障之前,让我们先了解一下缓存结构。 缓存(Cache)结构简介 现代计算机系统的缓存结构粗略如下: 每个CPU都有自己的缓存。 缓存(Cache)分为又分多个级别。 一级缓存L1的访问非常接近一个cpu周期(cycles),二级缓存L2的存取可能就要大概10个周期了。 缓存和内存 ...
分类:
其他好文 时间:
2017-06-26 20:04:47
阅读次数:
223
简介 H2O的深度学习基于多层前馈人工神经网络,该网络是由使用了反向传播的随机梯度下降算法训练而来该网络可以包含大量由携带tanh、rectifier、maxout激活函数的神经元组成的隐藏层。如自适应学习率、率退火、动量训练、dropout, L1 or L2 regularization, ch ...
分类:
其他好文 时间:
2017-06-25 17:03:58
阅读次数:
429
1. (for x in L1) 是一个可迭代对象; 2. 列表解析比for 循环快,列表解析的迭代在解释器内部是以C语言速度执行, 而不是手动python代码执行; (x+10 for x in L1) = for x in L1: L1.append(x+10) >>>for x in L1: ...
分类:
其他好文 时间:
2017-06-24 17:14:13
阅读次数:
118
ps:转的。当时主要是看到一个问题是L1 L2之间有何区别,当时对l1与l2的概念有些忘了,就百度了一下。看完这篇文章,看到那个对W减小,网络结构变得不那么复杂的解释之后,满脑子的6666 >把网络权重W看做为对上一层神经元的一个WX+B的线性函数模拟一个曲线就好。知乎大神真的多。 版权声明:本文为 ...
分类:
其他好文 时间:
2017-06-20 00:16:38
阅读次数:
221
对于DSP的每一个CPU而言,当由CPU发起的对corePac内部内存(L1,L2内存,片上寄存器地址)的訪问(通过store或load指令)时,所訪问内存的地址就是物理地址;但当CPU訪问corePac外部的内存(如MSM,即多核共享内存或DDR)时。CPU所訪问的32位地址就是虚拟地址了。在訪问 ...
分类:
其他好文 时间:
2017-06-19 19:33:15
阅读次数:
132
思路 使用三个游标:cur指向合并后链表的尾部,l1,l2分别用于遍历两个链表,较小的元素增加到合并后链表。 小技巧 使用冗余的头结点可以精简地判断一下情形,其中一个链表,或两个都为空链表。 从而精简代码。 朴素代码 优化代码 ...
分类:
编程语言 时间:
2017-06-18 22:44:57
阅读次数:
126
如果在AutoEncoder的基础上加上L1的Regularity限制(L1主要是约束每一层中的节点中大部分都要为0,只有少数不为0,这就是Sparse名字的来源),我们就可以得到Sparse AutoEncoder法。 如果在AutoEncoder的基础上加上L1的Regularity限制(L1主 ...
分类:
其他好文 时间:
2017-06-15 17:16:44
阅读次数:
161
题目: Given a singly linked list L: L0→L1→…→Ln-1→Ln,reorder it to: L0→Ln→L1→Ln-1→L2→Ln-2→… You must do this in-place without altering the nodes' values. ...
分类:
其他好文 时间:
2017-06-13 09:59:34
阅读次数:
142
题目 URL:https://leetcode.com/problems/add-two-numbers/ 解法 没什么特殊的解法,按位相加即可。 注意点: 1、l1 和 l2 不一样长。 2、最终的进位。 单层循环,时间复杂度O(max(l1.length, l2.length)),运行时间约为 ...
分类:
其他好文 时间:
2017-06-10 19:27:45
阅读次数:
131