码迷,mamicode.com
首页 >  
搜索关键字:hierarchical softmax    ( 573个结果
从五种架构风格推导出HTTP的REST架构
数据流风格 Data-flow Styles 优点:简单性、可进化性、可扩展性、可配置性、可重用性 复制风格 Replication Styles 优点:用户可察觉的性能、可伸缩性,网络效率、可靠性也可以得到提升 分层风格 Hierarchical Styles 优点:简单性、可进化性、可伸缩性 移 ...
分类:Web程序   时间:2019-05-25 19:28:13    阅读次数:163
tf.nn.softmax_cross_entropy_with_logits的用法
在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l ...
分类:其他好文   时间:2019-05-20 17:17:26    阅读次数:248
NLP文本分类方法汇总
模型: FastText TextCNN TextRNN RCNN 分层注意网络(Hierarchical Attention Network) 具有注意的seq2seq模型(seq2seq with attention) Transformer("Attend Is All You Need") ...
分类:其他好文   时间:2019-05-14 13:05:21    阅读次数:162
Faster R-CNN简介及其发展
一、简介 二、参考文献 三、R-CNN 四步: 1、提取region proposals。论文采用的是SS(选择性搜索方法),提取的的proposals数目为2000个。 2、将2000个proposals变形为227*227大小输入AlexNet中得到4096维的特征,形成一个2000*4096维 ...
分类:其他好文   时间:2019-05-14 12:38:02    阅读次数:160
MNIST机器学习入门(二)
在前一个博客中,我们已经对MNIST 数据集和TensorFlow 中MNIST 数据集的载入有了基本的了解。本节将真正以TensorFlow 为工具,写一个手写体数字识别程序,使用的机器学习方法是Softmax 回归。 一、Softmax回归的原理 Softmax 回归是一个线性的多类分类模型,实 ...
分类:其他好文   时间:2019-05-05 16:02:28    阅读次数:154
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5) 上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。 先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质 ...
分类:其他好文   时间:2019-05-02 00:20:02    阅读次数:174
【机器学习基础】对 softmax 和 cross-entropy 求导
softmax 和 cross entropy 是机器学习中很常用的函数,softmax 常用来作为 DNN 分类网络最后一层的激活函数,而 cross entropy 也是一种常用的 loss function。熟悉两者的求导有助于理解为什么 tensorflow 会把这两个函数封装成一个 fun... ...
分类:其他好文   时间:2019-04-29 16:03:27    阅读次数:159
Large-Margin Softmax Loss for Convolutional Neural Networks
paper url: https://arxiv.org/pdf/1612.02295year:2017## Introduction交叉熵损失与softmax一起使用可以说是CNN中最常用的监督组件之一。 尽管该组件简单而且性能出色, 但是它只要求特征的可分性, 没有明确鼓励网络学习到的特征具有类... ...
分类:Web程序   时间:2019-04-29 11:01:11    阅读次数:856
softmax函数
std::vector vsoftmax(std::vector &v) { double sum=0; for(auto iter:v) { sum+=exp(iter); } std::vector res; for(int i=0;i ...
分类:其他好文   时间:2019-04-22 12:27:05    阅读次数:119
[转] 理解交叉熵在损失函数中的意义
转自:https://blog.csdn.net/tsyccnh/article/details/79163834 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用 ...
分类:其他好文   时间:2019-04-18 00:45:09    阅读次数:983
573条   上一页 1 ... 12 13 14 15 16 ... 58 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!