一、引用的定义 引用是给另外一个变量起别名,所以引用不会分配内存空间。 引用的声明方法:类型标识符 &引用名=目标变量名;(如int &ptr = num;) 二、引用与指针的区别 1、指针是一个实体,需要分配内存空间。引用只是变量的别名,不需要分配内存空间。 2、引用在定义的时候必须进行初始化,并 ...
分类:
其他好文 时间:
2019-08-03 17:39:02
阅读次数:
125
恢复内容开始 梯度下降的定义: 梯度下降是一种因为计算机储存及能力有限,采取逐步逼近,迭代求解的方法. 梯度下降的步骤: 任取一点作为起始点 查看在当前点向那个方向移动能得到最小的z值,并向该方向移动. 重复该步骤,直到无法找到更小的z值,此时认为达到最低点. 几个基础的算法概念: 步长:是每一次梯 ...
分类:
其他好文 时间:
2019-06-22 19:49:01
阅读次数:
133
? 我们默认下载的AXURE是英文版的,对于英文能力不足或者不习惯英文界面的,那必须使用汉化手段,网上也有很多朋友已经为大家做好了汉化文件,这里介绍一下如何自己做AXURE的汉化。 如何开始汉化 如何开始汉化,只需要在Axure的安装目录下创建lang文件夹,并在里面放一个default文件即可开始 ...
分类:
其他好文 时间:
2019-05-30 21:57:00
阅读次数:
174
目标变量的引用可变和不可变类型局部变量和全局变量01.变量的引用变量和数据都是保存在内存中的在Python中函数的参数传递以及返回值都是靠引用传递的1.1引用的概念在Python中变量和数据是分开存储的数据保存在内存中的一个位置变量中保存着数据在内存中的地址变量中记录数据的地址,就叫做引用使用id()函数可以查看变量中保存数据所在的内存地址注意:如果变量已经被定义,当给一个变量赋值的时候,本质上是
分类:
编程语言 时间:
2019-05-09 17:00:16
阅读次数:
121
变量进阶 目标 变量的引用 可变和不可变类型 局部变量和全局变量 01. 变量的引用 变量 和 数据 都是保存在 内存 中的 在 Python 中 函数 的 参数传递 以及 返回值 都是靠 引用 传递的 1.1 引用的概念 在 Python 中 变量 和 数据 是分开存储的 数据 保存在内存中的一个 ...
分类:
其他好文 时间:
2019-05-09 10:46:59
阅读次数:
118
指针 先看一个简单的例子: 运行结果: p:0x7ffc2861549c*p:123num:123&num:0x7ffc2861549c p是指向num地址的指针,所以p的值为num的地址。可以给*p赋值,此时num值也会发生相应的变化,但是不会因此而改变p所指向的地址。 *p = 123p = 0 ...
分类:
编程语言 时间:
2019-04-21 10:10:38
阅读次数:
185
2019/4/20 二层BP神经网络 题目是关于在10 10的平面上投骰子并分辨点数的,可以到我的Github上看(英文的) 但是仍有部分在公式上的不明了,但是其运作方式还是很简单的,先简单解析我的代码 是本次所解题目的训练集生成软件,generate_data(N)会返回两个数组,一个为N 100 ...
分类:
编程语言 时间:
2019-04-20 17:08:09
阅读次数:
199
引用解释: (1)引用仅是变量的别名,而不是实实在在地定义了一个变量,因此引用本身并不占用内存,而是和目标变量共同指向目标变量的内存地址,即共用内存 (2)引用和目标变量的地址是一样的,对引用的操作与对变量直接操作完全一样,即对引用的修改就是对目标变量的修改 (3)表达式中的取地址符&不再是取变量的 ...
分类:
编程语言 时间:
2019-04-18 12:08:15
阅读次数:
151
决策树模型 决策树(DecisionTree, DT)是一种常见的用于分类和回归的非参数监督学习方法,目标是创建一个模型,通过从数 据特性中推导出简单的决策规则来预测目标变量的值。决策树模型的优点在于:1,简单容易理解,数据结构可以可视化表达。2,需要很少的数据准备,其他技术通常需 要数据标准化,需 ...
分类:
其他好文 时间:
2019-04-10 12:04:10
阅读次数:
125
1、回归算法分类算法的目标值是标称型数据,而回归的目标变量是连续型数据,主要包括线性回归,岭回归,lasso回归,前向逐步回归。2、线性回归线性回归主要用于处理线性数据,结果易于理解,计算复杂度不高,但是处理不了非线性数据。线性回归用最适直线(回归线)去建立因变量Y和一个或多个自变量X之间的关系。可以用公式来表示:Y=wX+b。其中w为权重,也称为回归系数,b为偏置顶。3、理解线性回归线性回归从高
分类:
其他好文 时间:
2019-01-29 18:32:15
阅读次数:
236