XGBoos博客 \[ x+y=z \] XGBoost是一种以决策树(cart树)为基学习器的集成学习方法。 XGBoost的目标: \(Loss=\large{\sum\nolimits_{i=1}^{n}{l(y_i,\hat{y_i}) + \sum\nolimits_{k=1}^{T}{\ ...
分类:
其他好文 时间:
2020-10-18 10:15:10
阅读次数:
33
抽象类 我们先来看抽象类的实现实例,然后再讨论关于抽象类的细节问题。 package oop.OopDemo.AbstractClass; public class TestAbstract { public static void main(String[] args) { //Animal an ...
分类:
编程语言 时间:
2020-10-16 11:14:22
阅读次数:
27
因为最近实验室安排我带一下另外两位硕士生,然后发现好像他们还挺需要一个简单明了的框架manual的,所以打算写个超级白话的精简版。 1. 首先一句话解释下深度学习,就是给所谓网络一个输入,希望其能输出我们想要的结果。如果没有输出想要的结果,就要教育这个网络,调整其参数配置,使其能输出我们想要的结果。 ...
分类:
其他好文 时间:
2020-10-16 10:30:06
阅读次数:
22
一、图片基础和keras介绍 1、图片三要素 2、keras常用api 3、keras读取图片 使用image前需安装pillow pip install Pillow from tensorflow.python.keras.preprocessing.image import load_img, ...
分类:
其他好文 时间:
2020-10-13 17:04:38
阅读次数:
22
vmware16.0 centos7.8 1. 使用vmware安装 centos环境 cpu4个 内存4G 网络nat模式 2.配置网络 vim /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE="Ethernet" PROXY_METHOD="non ...
分类:
其他好文 时间:
2020-10-10 17:16:23
阅读次数:
31
1.单层感知机 单层感知机的主要步骤: 1.对数据进行一个权重的累加求和,求得∑ 2.将∑经过一个激活函数Sigmoid,得出值O 3.再将O,经过一个损失函数mse_loss,得出值loss 4.根据loss,以及前边所求得的值,求得loss对各个w的偏导数 5.更新w值 # 单层感知机梯度的推导 ...
分类:
其他好文 时间:
2020-10-09 20:26:54
阅读次数:
20
Google:inline Forward Caffe 作者:jiongnima 这个作者很懒,什么都没留下… 原创 干货!caffe源码深入学习9:caffe框架神经网络反传代码解析(三)之contrastive_loss_layer源码解析 本篇博客是Caffe深度学习梯度反传代码解析的第3篇。 ...
分类:
其他好文 时间:
2020-10-07 21:44:58
阅读次数:
42
转:loss突然变为nan?你可能踩了sqrt()的坑 ...
分类:
其他好文 时间:
2020-09-17 23:12:38
阅读次数:
29
Pytorch深度学习实战教程(四):必知必会的炼丹法宝来自专辑深度学习教程点击上方“JackCui”,选择“加为星标”第一时间关注技术干货!1前言训练深度学习模型,就像“炼丹”,模型可能需要训练很多天。我们不可能像「太上老君」那样,拿着浮尘,24小时全天守在「八卦炉」前,更何况人家还有炼丹童、天兵天将,轮流值守。人手不够,“法宝”来凑。本文就盘点一下,我们可以使用的「炼丹法宝」。PS:文中出现的
分类:
其他好文 时间:
2020-09-14 18:46:47
阅读次数:
19
BP公式推倒 bp算法通过loss计算得到的误差,从最后的输出层,通过loss不断的向后,对能影响到loss变化的传播路径中各个隐藏层的神经元的输入和输出函数求偏导,更新目标权重的一个过程。 具体的计算方式如下。 先来构建一个网络图,然后我们定义一些数学符号 其中 \(w_{ij}^{l}\) 表示 ...
分类:
编程语言 时间:
2020-09-12 21:24:54
阅读次数:
41