使用XGBoost实现多分类预测的实践代码 import pandas as pd import numpy as np import xgboost as xgb from sklearn.preprocessing import LabelEncoder from sklearn.model_s ...
分类:
其他好文 时间:
2020-01-15 00:03:53
阅读次数:
187
[TOC] "He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]. computer vision and pattern recognition, 2016: 770 778." @article ...
分类:
Web程序 时间:
2020-01-11 23:53:54
阅读次数:
171
根据已知特征值X和标签结果Y,我们利用线性回归模型(为了简化,作者以一元线性回归为例说明)可以得出 yi^=wxi+b。 损失函数:loss=Σ(yi-yi^)2 ,为了得到更加准确的拟合模型,我们的目标就转化为使损失函数loss最小,即: argmin loss=argmin Σ(yi-yi^)2 ...
分类:
其他好文 时间:
2020-01-11 14:57:31
阅读次数:
154
官方原理图 前向传播过程:将数据按照batch维度分发到各个GPU上(平均分配),而后将模型拷贝到GPU,各GPU并行前向传播,将各个输出(o1、02、03、04)汇总到总的GPU。 后向传播过程:在总GPU上并行计算得到损失,并得到初始梯度;将各梯度分发到各GPU;并行计算梯度;汇总梯度,更新网络 ...
分类:
其他好文 时间:
2020-01-11 00:36:46
阅读次数:
135
前言 在 "上一讲" 中,我们通过分析选用了softmax模型,并用tf创建之。本讲的内容就是为了训练这个模型以便于测试。 训练模型 为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss ...
分类:
其他好文 时间:
2020-01-07 00:54:44
阅读次数:
75
单向连接 link docker run d name centos test 1 ...
分类:
其他好文 时间:
2020-01-07 00:41:11
阅读次数:
95
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢? 在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.0 ...
分类:
编程语言 时间:
2020-01-06 19:30:38
阅读次数:
136
`Focal Loss`是为了处理样本不平衡问题而提出的,经时间验证,在多种任务上,效果还是不错的。在理解`Focal Loss`前,需要先深刻理一下交叉熵损失,和带权重的交叉熵损失。然后我们从样本权利的角度出发,理解`Focal Loss`是如何分配样本权重的。Focal是动词Focus的形容词... ...
分类:
其他好文 时间:
2020-01-06 12:37:04
阅读次数:
299
代码如下: # encoding :utf-8 import io # 文件数据流 import datetime import matplotlib.pyplot as plt import tensorflow as tf from tensorflow import keras # 导入常见网 ...
分类:
其他好文 时间:
2020-01-03 15:38:58
阅读次数:
318
import pandas as pd import numpy as np import matplotlib.pyplot as plt class linear_regression(object): 计算均方误差损失 def compute_loss(self,y,y_hat): retur ...
分类:
其他好文 时间:
2020-01-01 18:39:11
阅读次数:
101