1.概述 Lexical Analysis of Chinese,简称 LAC,是一个联合的词法分析模型,在单个模型中完成中文分词、词性标注、专名识别任务。我们在自建的数据集上对分词、词性标注、专名识别进行整体的评估效果。主要通过标注来完成这些任务。 2.预测和损失函数 标注问题一般用crf来作为损 ...
分类:
其他好文 时间:
2020-05-21 00:32:49
阅读次数:
74
本文主要介绍深度学习项目实践过程中可能遇到的一些组件及使用技巧!一、Optimizor优化器选择 二、激活函数选择 三、防止过拟合 四、防止梯度消失/爆炸 五、权值初始化 六、数据预处理 七、学习率 learning rate 八、批次大小 batch_size 九、损失函数 Loss 十、其他 ...
分类:
其他好文 时间:
2020-05-18 18:42:12
阅读次数:
72
主要内容: 线性回归 定义与问题引入 损失函数 梯度下降 过拟合与正则化 逻辑回归 定义与问题引入 损失函数 梯度下降与正则化 线性回归 有监督学习= 学习样本为D={(x~i~,y~i~)}^N^~i=1~ 多变量情形: 损失函数 loss function: 梯度下降: 其中α为步长,很大 震荡 ...
分类:
其他好文 时间:
2020-05-17 17:27:48
阅读次数:
73
梯度提升树GBDT GBDT是Boosting家庭中,除AdaBoost外另一个重要的算法。算法思想同样是让本轮迭代找到的决策树的损失比上轮更小。 GBDT负梯度拟合 用损失函数负梯度来拟合本轮损失近似值,进而拟合一个CART回归树。第t轮的第i个样本的损失函数的负梯度表示为: $$ r_{ti}= ...
分类:
其他好文 时间:
2020-05-13 16:50:25
阅读次数:
58
1、损失函数:度量预测错误的程度,评估模型单次预测的好坏。 a:0-1损失函数: $L(Y,f(X))=\begin{cases}0 & \text{ if } Y=f(X) \\ 1 & \text{ if } Y\neq f(X) \end{cases}$ b:平方损失函数: $L(Y,f(X) ...
分类:
其他好文 时间:
2020-05-10 17:11:17
阅读次数:
78
这一篇主要讲解Pytorch搭建一个卷积神经网络识别自己的数字数据集基本流程。 注:一开始接触很多教程都是直接加载datasets已有的MNIST等,如果想要训练自己的数据就可以采用这个方法。 基本步骤:获取并读取数据-->定义网络模型和损失函数-->使用优化算法训练模型-->利用验证数据集求取网络 ...
分类:
其他好文 时间:
2020-05-08 16:26:34
阅读次数:
83
XGBoost 相比于GBDT 做了两方面的优化: 一是算法本身的优化:在算法的弱学习器模型选择上,对比GBDT只支持决策树,XGBoost 还可以直接很多其他的弱学习器。 在算法的损失函数上,除了本身的损失,XGBoost 还加上了正则化部分,可以防止过拟合,泛化能力更强。 在计算方式上,GBDT... ...
分类:
编程语言 时间:
2020-05-03 17:02:08
阅读次数:
100
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,衡量模型预测的好坏。它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。 损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验 ...
分类:
其他好文 时间:
2020-05-03 10:40:11
阅读次数:
153
摘要 在损失函数计算的过程中,需要对模型的输出即 feats进行相关信息的计算。 在yolo_head中 当前小网格相对于大网格的位置(也可以理解为是相对于特征图的位置) loss的计算时每一层结果均与真值进行误差的累加计算。 YOLO v3的损失函数与v1 的损失函数略有不同。损失函数的计算是在对 ...
分类:
其他好文 时间:
2020-04-28 17:14:25
阅读次数:
324
1 简介 1.1 介绍 1.2 生成步骤 CART树算法由以下两步组成:(1)决策树生成:基于训练数据集生成决策树,生成的决策树要尽量大;(2)决策树剪枝:用验证数据集对己生成的树进行剪枝并选择最优子树,这时用损失函数址小作为剪枝的标准。 2 算法 2.1 回归树 对回归树用平方误差最小化准则,生成 ...
分类:
编程语言 时间:
2020-04-28 14:36:46
阅读次数:
113