损失函数通过调用torch.nn包实现。 基本用法: criterion = LossCriterion() #构造函数有自己的参数 loss = criterion(x, y) #调用标准时也有参数 L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 torch.nn ...
分类:
其他好文 时间:
2020-03-02 22:37:33
阅读次数:
84
基本用法12criterion = LossCriterion() loss = criterion(x, y) # 调用标准时也有参数损失函数L1范数损失:L1Loss计算 output 和 target 之差的绝对值。1torch.nn.L1Loss(reduction='mean')参数:re... ...
分类:
其他好文 时间:
2020-02-28 12:23:47
阅读次数:
57
这几天刚接触example,很多内容都是破碎的,写一篇文章加深理解。 一、什么是example类 mybatis-generator会为每个字段产生Criterion,为底层的mapper.xml创建动态sql。如果表的字段比较多,产生的example类会十分庞大。理论上通过example类可以构造 ...
分类:
其他好文 时间:
2020-02-26 17:10:43
阅读次数:
103
kaggle自行车租赁预测 1.数据 为自行车租赁系统提供的数据,提供数据为2年内华盛顿按小时记录的自行车租赁数据。数据来源: "Kaggle自行车租赁预测比赛数据 " 2.数据预处理 通过pandas导入数据 瞅一眼看看数据格式,这里打印前5行: 查看一下数据有没有缺省值 把月,日和小时单独拎出来 ...
分类:
其他好文 时间:
2019-12-30 00:20:48
阅读次数:
166
Math 185 Final Project (Due December 8)Problem 1The baseball dataset consists of the statistics of 263 players in Major LeagueBaseball in the season 1 ...
分类:
其他好文 时间:
2019-11-27 19:01:50
阅读次数:
96
sklearn.tree.DecisionTreeClassifier 特征选择标准criterion 可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法。除非你更喜欢类似ID3, C4.5的最优特征选择方法。 ...
分类:
其他好文 时间:
2019-10-15 11:37:44
阅读次数:
129
记得刚开始学TensorFlow的时候,那给我折磨的呀,我一直在想这个TensorFlow官方为什么搭建个网络还要画什么静态图呢,把简单的事情弄得麻烦死了,直到这几天我开始接触Pytorch,发现Pytorch是就是不用搭建静态图的Tensorflow版本,就想在用numpy一样,并且封装了很多深度 ...
分类:
其他好文 时间:
2019-10-03 12:24:33
阅读次数:
2855
Recurrent neural network (RNN) - Pytorch版 ...
分类:
Web程序 时间:
2019-08-31 12:41:18
阅读次数:
121
[1]特征选择标准criterion:string类型,可以使用"gini"或者"entropy",前者代表基尼系数,后者代表信息增益。一般说使用默认的基尼系数"gini"就可以了,即CART算法。除非你更喜欢类似ID3, C4.5的最优特征选择方法。 [2]特征划分点选择标准splitter:st ...
分类:
编程语言 时间:
2019-08-30 14:03:33
阅读次数:
95
在Bagging与随机森林算法原理小结中,我们对随机森林(Random Forest, 以下简称RF)的原理做了总结。本文就从实践的角度对RF做一个总结。重点讲述scikit-learn中RF的调参注意事项,以及和GBDT调参的异同点。# 一、scikit-learn随机森林类库概述 在scikit... ...
分类:
其他好文 时间:
2019-07-19 18:44:10
阅读次数:
80