1、criterion: 特征选取标准。 默认:gini。 可选gini(基尼系数)或者entropy(信息增益)。 1.1 选择entropy,则是ID3或C4.5算法。 ID3算法原理: a 计算训练集所有样本的信息熵。 b 计算每一特征分类后的信息增益。 c 选择信息增益最大的特征进行分类,得 ...
分类:
其他好文 时间:
2021-01-06 12:02:48
阅读次数:
0
算是动态图的一个坑吧。记录loss信息的时候直接使用了输出的Variable。应该不止我经历过这个吧...久久不用又会不小心掉到这个坑里去...fordata,labelintrainloader:......out=model(data)loss=criterion(out,label)loss_sum+=loss#<---这里......运行着就发现显存炸了观察了一下发现随着每个batc
分类:
其他好文 时间:
2020-11-30 15:36:48
阅读次数:
4
ACS130 Introduction to Systems Engineering and SoftwareIndividual C Programming Assignment 1Assignment weighting: 10% of module markAssignment release ...
分类:
其他好文 时间:
2020-11-19 12:12:45
阅读次数:
5
这里的 Bencher 指的是 C++ 代码性能测试工具。 下面是一点儿碎碎念 真的,C++ 要是有统一的包管理工具就好了。现在不但库的使用比较杂,还没有什么好的教材,真有一种旧时候手艺人的风格,大概得有个师父带着才能高效。如果我在写 Rust 的话,就直接上 Criterion 了,还管什么自己造 ...
分类:
其他好文 时间:
2020-08-25 18:39:52
阅读次数:
49
CLASS torch.nn.MSELoss(size_average=None, reduce=None, reduction='mean') Creates a criterion that measures the mean squared error (squared L2 norm) be ...
分类:
其他好文 时间:
2020-06-07 14:51:25
阅读次数:
112
RandomForestRegressor class sklearn.ensemble.RandomForestRegressor (n_estimators=’warn’, criterion=’mse’, max_depth=None, min_samples_split=2, min_sam ...
分类:
其他好文 时间:
2020-06-02 19:17:09
阅读次数:
286
RandomForestClassi?er class sklearn.ensemble.RandomForestClassifier (n_estimators=’10’, criterion=’gini’, max_depth=None, min_samples_split=2, min_sam ...
分类:
其他好文 时间:
2020-06-02 17:18:35
阅读次数:
80
DecisionTreeRegressor class sklearn.tree.DecisionTreeRegressor (criterion=’mse’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_lea ...
分类:
其他好文 时间:
2020-06-02 14:54:49
阅读次数:
95
进度日志 公共课一:政治 公共课二:英语一 业务课一:数学一 业务课二:自动控制原理、信号与系统 20200526 公共课一 无 公共课二 单词大纲一页 moss 苔藓、地衣 tile 瓷砖;铺砖(v.) mortgage 按揭(n.);抵押房产(v.) MonoployTM “大富翁” momen ...
分类:
其他好文 时间:
2020-05-27 09:19:30
阅读次数:
90
聚类 数据是么有标签的,属于无监督学习 hierarchical clustering 层次聚类法 linkage:聚合距离函数 fcluster:层次聚类函数 使用scipy包中的函数 kmeans 均值聚类 使用vq函数将样本数据中的每个样本点分配给一个中心点,形成n个聚类 "vq" white ...
分类:
编程语言 时间:
2020-03-03 12:39:48
阅读次数:
91