码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
三、回归问题与应用
有监督学习类似于学习数学,先做题 对答案,然后老师出卷子进行月考 无监督学习 挖掘数据 需要与环境交互 回归问题数学用语比较多,但是对大学高数部分熟悉的话,应该不是问题。 线性回归 损失函数(loss function,优化方向,评估方式)/代价函数/目标函数 找到最好的权重/参数 如何衡量最好? ...
分类:其他好文   时间:2018-02-19 11:34:36    阅读次数:141
『PyTorch』第四弹_通过LeNet初识pytorch神经网络_下
『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上 这是使用LeNet分类cifar_10的例子,数据处理部分由于不是重点,没有列上来,主要是对使用torch分类有一个直观理解, 初始化网络 初始化Loss函数 & 优化器 进入step循环: 梯度清零 向前传播 计算本次Loss ...
分类:Web程序   时间:2018-02-11 19:49:14    阅读次数:228
AI 学习之路
前言:本文章纯属自己学习路线纪录,不喜勿喷。 最近AI很火,几乎是个程序员 都要去学习AI,作为一个菜鸡小前端,我也踏上了学习AI的方向。 在学习之中,最开始遇到了很多的困难,比如你不知道如何切入进来学习AI,你网上搜集到的资料都是各种各样,完全象各种碎片一样,自己又无法拼凑起来 形成一个完美的学习 ...
分类:其他好文   时间:2018-02-06 21:38:16    阅读次数:673
Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.3
3、Spark MLlib Deep Learning Convolution Neural Network(深度学习-卷积神经网络)3.3 http://blog.csdn.net/sunbow0 第三章Convolution Neural Network (卷积神经网络) 3实例 3.1 測试数 ...
分类:Web程序   时间:2018-02-01 10:47:18    阅读次数:231
机器学习上的一些容易混淆的概念
监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。 分类和回归的区别在于输出变量的类型。 定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。 举个例子:预测明天的气温是多少度,这是一个回归任务; 分类和 ...
分类:其他好文   时间:2018-01-31 22:14:19    阅读次数:231
机器学习 损失函数(Loss/Error Function)、代价函数(Cost Function)和目标函数(Objective function)
损失函数(Loss/Error Function): 计算单个训练集的误差 代价函数(Cost Function): 计算整个训练集所有损失之和的平均值 至于目标函数(Objective function),字面一些,就是有某个(最优化)目标的函数,比如最优化这个目的。没有找到定义,个人理解,目标函 ...
分类:其他好文   时间:2018-01-20 21:22:52    阅读次数:418
1-3、ping 和tracert 命令的使用
ping 和tracert 命令的使用
分类:其他好文   时间:2018-01-20 14:03:56    阅读次数:171
部署集群基础环境,MySQL-MMM架构部署,MySQL-MMM架构使用
部署集群基础环境 1.1 问题 本案例要求为MySQL集群准备基础环境,完成以下任务操作: 数据库授权 部署MySQL双主多从结构 配置本机hosts解析记录 1.2 方案 使用4台RHEL 6虚拟机,如图-1所示。其中192.168.4.10、192.168.4.11作为MySQL双主服务器,19 ...
分类:数据库   时间:2018-01-19 20:49:39    阅读次数:231
如何在Windows环境下模拟丢包
[本文出自天外归云的博客园] Q&A Question: How to simulate packet loss on Windows? Answer: Clumsy, an utility for simulating broken network for Windows. 事实上,你在googl ...
分类:Windows程序   时间:2018-01-17 12:30:27    阅读次数:2393
分布式强化学习基础概念(Distributional RL )
分布式强化学习基础概念(Distributional RL) from: https://mtomassoli.github.io/2017/12/08/distributional_rl/ 1. Q-learning 在 Q-learning 中,我们想要优化如下的 loss: Distribut ...
分类:其他好文   时间:2018-01-14 18:43:54    阅读次数:185
720条   上一页 1 ... 45 46 47 48 49 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!