码迷,mamicode.com
首页 >  
搜索关键字:学习随笔    ( 360个结果
Linux基础学习随笔
History 输出操作历史上的所有命令 Ctrl+p 输出历史命令的向上滚动。 Ctrl+n 输出历史命令的向下滚动。 Ctrl+b 光标左移 Ctrl+f 光标右移 Ctrl+a 光标移到行首 Ctrl+e 光标移到行尾 Ctrl+L 清屏 Tab 智能提示 Tab 连续按两次,可以列出所有的命 ...
分类:系统相关   时间:2018-06-24 20:58:51    阅读次数:185
日常学习随笔-用链表的形式实现普通二叉树的新增、查找、遍历(前、中、后序)等基础功能(侧重源码+说明)
一、二叉树 1、二叉树的概念 二叉树是每个节点最多有两个子树的树结构。通常子树被称作“左子树”(left subtree)和“右子树”(right subtree),其次序不能任意颠倒。 2、性质 (1)若二叉树的层次从0开始,则在二叉树的第i层至多有2^i个结点(i>=0); (2)高度为k的二叉 ...
分类:其他好文   时间:2018-05-27 10:39:06    阅读次数:205
[吃药深度学习随笔] 交叉熵
#TensorFlow函数 ce = -tf.reduce_mean(y_* tf.log(tf.clip_by_value(y, 1e-12, 1.0))) #Tensorflow代码 ce = tf.nn.sparse_softmax_cross_entropy_with_logits(logi... ...
分类:其他好文   时间:2018-05-21 01:02:49    阅读次数:185
日常学习随笔-数组、单链表、双链表三种形式实现队列结构的基本操作(源码注释)
一、队列结构(本文侧重于源码实现,基础理论不多赘述) 和栈一样,队列(queue)也是表,然而使用队列是在一端插入数据,在另一端删除数据。这里插入就是入队(enqueue),删除就是(dequeue). 队列的核心思想是:“先进先出” 队列的实现方式有很多中,常见的有 (1)数组方式 (2)单链表方 ...
分类:编程语言   时间:2018-05-20 11:41:16    阅读次数:256
日常学习随笔-数组、单链表、双链表三种形式实现栈结构的基本操作
一、栈结构 栈(stack)是限制插入和删除只能在一个位置上的表,该位置是 表的末端,叫做栈的顶(Top)。对栈的基本操作有push(进栈),pop(出栈),peak(栈顶元素),size(栈容量)等。 栈的核心思想:“先进后出”。 二、案例一:数组实现“栈” 测试类: 运行结果: 三、案例二:单链 ...
分类:编程语言   时间:2018-05-19 11:09:19    阅读次数:198
日常学习随笔-自定义了一个双链表(注释蛮详细的)
一、双链表结构 最近总会抽出一些零碎的时间片段,尝试按照自己的想法自定一了一个双链表结构的集合。我发现,数组、单链表或者双链表,乃至其他结构,本质上就是一种思想。数组和单链表就不多说了,前几篇也尝试自定义了,就双链表来说,就可以定义如下几种结构: (1)头结点+...数据结点.....+尾结点 (2 ...
分类:其他好文   时间:2018-05-17 19:52:08    阅读次数:178
PID学习随笔
PID有两种,一种是位置式的PID,一种是增量式的PID 位置式的PID适合没有记忆功能的控制器件,如继电器 u(k)=Kp*e(k) +Ki* +Kd*[e(k)-e(k-1)] 增量式PID适合有记忆功能的控制器件,如步进电机 △u(k)= u(k)- u(k-1) PID >>>>P比例 I积 ...
分类:其他好文   时间:2018-05-14 12:31:39    阅读次数:142
日常学习随笔-自定义了一个MyArrayListDefin集合(数组扩容+迭代器+JDK1.8新方法+详细说明)
一、自定义了一个ArrayList的模拟集合(源码+详细说明) 前段时间分析了下ArrayList集合的源码,总觉得如果不自己定义一个的话,好像缺了点什么,所以有了如下的代码。 代码可以说是逐行注释了,所以就不做过多的分析了。 自定义集合:MyArrayListDefin.java 运行类:Test ...
分类:编程语言   时间:2018-05-13 13:51:52    阅读次数:213
[吃药深度学习随笔] 学习率
学习率(Learning_rate) 表示了每次参数更新的幅度大小 若过大 则参数容易在最小值附近不断跳跃 若过小 则参数收敛会变慢 于是 如何设置学习率? 使用 指数衰减学习率 Tensorflow代码: 例子: 得到最终结果: 学习率不断减小 ...
分类:其他好文   时间:2018-05-13 01:07:39    阅读次数:173
[吃药深度学习随笔] 损失函数
神经元模型 常用的激活函数(激励函数): 神经网络(NN)复杂度:多用神经网络层数和神经网络参数个数来表示 层数 = 隐藏层层数+1个输出层 参数个数 = 总W(权重) + 总B(偏置) 比如 损失函数(loss):预测值y 和已知答案y_ 的差距 神经网络优化目标:使损失函数loss 达到最小 常 ...
分类:其他好文   时间:2018-05-12 23:07:38    阅读次数:234
360条   上一页 1 ... 9 10 11 12 13 ... 36 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!