数据流风格 Data-flow Styles 优点:简单性、可进化性、可扩展性、可配置性、可重用性 复制风格 Replication Styles 优点:用户可察觉的性能、可伸缩性,网络效率、可靠性也可以得到提升 分层风格 Hierarchical Styles 优点:简单性、可进化性、可伸缩性 移 ...
分类:
Web程序 时间:
2019-05-25 19:28:13
阅读次数:
163
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l ...
分类:
其他好文 时间:
2019-05-20 17:17:26
阅读次数:
248
模型: FastText TextCNN TextRNN RCNN 分层注意网络(Hierarchical Attention Network) 具有注意的seq2seq模型(seq2seq with attention) Transformer("Attend Is All You Need") ...
分类:
其他好文 时间:
2019-05-14 13:05:21
阅读次数:
162
一、简介 二、参考文献 三、R-CNN 四步: 1、提取region proposals。论文采用的是SS(选择性搜索方法),提取的的proposals数目为2000个。 2、将2000个proposals变形为227*227大小输入AlexNet中得到4096维的特征,形成一个2000*4096维 ...
分类:
其他好文 时间:
2019-05-14 12:38:02
阅读次数:
160
在前一个博客中,我们已经对MNIST 数据集和TensorFlow 中MNIST 数据集的载入有了基本的了解。本节将真正以TensorFlow 为工具,写一个手写体数字识别程序,使用的机器学习方法是Softmax 回归。 一、Softmax回归的原理 Softmax 回归是一个线性的多类分类模型,实 ...
分类:
其他好文 时间:
2019-05-05 16:02:28
阅读次数:
154
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5) 上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。 先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质 ...
分类:
其他好文 时间:
2019-05-02 00:20:02
阅读次数:
174
softmax 和 cross entropy 是机器学习中很常用的函数,softmax 常用来作为 DNN 分类网络最后一层的激活函数,而 cross entropy 也是一种常用的 loss function。熟悉两者的求导有助于理解为什么 tensorflow 会把这两个函数封装成一个 fun... ...
分类:
其他好文 时间:
2019-04-29 16:03:27
阅读次数:
159
paper url: https://arxiv.org/pdf/1612.02295year:2017## Introduction交叉熵损失与softmax一起使用可以说是CNN中最常用的监督组件之一。 尽管该组件简单而且性能出色, 但是它只要求特征的可分性, 没有明确鼓励网络学习到的特征具有类... ...
分类:
Web程序 时间:
2019-04-29 11:01:11
阅读次数:
856
std::vector vsoftmax(std::vector &v) { double sum=0; for(auto iter:v) { sum+=exp(iter); } std::vector res; for(int i=0;i ...
分类:
其他好文 时间:
2019-04-22 12:27:05
阅读次数:
119
转自:https://blog.csdn.net/tsyccnh/article/details/79163834 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用 ...
分类:
其他好文 时间:
2019-04-18 00:45:09
阅读次数:
983