·一、实验目的 实验目的:练习多维数组的用法 ·二、实验原理 鞍点(Saddle point)在微分方程中,沿着某一方向是稳定的,另一条方向是不稳定的奇点,叫做鞍点。在泛函中,既不是极大值点也不是极小值点的临界点,叫做鞍点。在矩阵中,一个数在所在行中是最大值,在所在列中是最小值,则被称为鞍点。在物理 ...
分类:
其他好文 时间:
2021-06-02 20:46:53
阅读次数:
0
1.防止控制台退出,除使用断点以外,可用 system("pause"); 2.浮点数都是近似存储,一般不判断是否相等,而是计算差值是否小于一极小值。 3.cout 打印转义字符需要再加一个反斜杠。 4.char类型只能存一个字符 5.bool类型函数返回时,true 与false的情况都要说明。r ...
分类:
编程语言 时间:
2020-07-06 14:40:55
阅读次数:
60
#include <stdio.h> #define F(x) (3*x*x-8*x+9) double fun1(double x); void goAndBackSectionPrint(double x1, double h, double (*f)(double)); int main(vo ...
分类:
编程语言 时间:
2020-05-26 15:11:24
阅读次数:
128
#include <stdio.h> #include <math.h> #define F(x) (3*x*x*x-4*x+2) double fun1(double x); void goAndBackSectionPrint(double x1, double h, double (*f)(d ...
分类:
编程语言 时间:
2020-05-26 15:04:14
阅读次数:
117
"Line belt" 思路 我们假定在$A, B$上选取点$E$,在$C, D$上选取点$F$,我们的移动路径是$A E F D$。 当我们确定$E$点时,不难发现$dis(E F + F D)$是一个凹函数,具有极小值。 当我们确定$F$点时不难发现$dis(A E + E F)$也是一个凹函数 ...
分类:
其他好文 时间:
2020-05-21 11:49:06
阅读次数:
38
蛇形矩阵 题目链接: https://www.acwing.com/activity/content/problem/content/1898/1/ 思路 设计一个偏移量,4个方向,走不通了就改变方向 实现 链表的归并排序 迭代 递归 寻找矩阵的极小值 题目链接:https://www.acwing ...
分类:
编程语言 时间:
2020-05-07 15:13:20
阅读次数:
82
其实就是普通的插排,没想到中间还是因为尾节点的next指针没处理导致死循环,题目直接看链接,这里只是记录一下思路和代码。 解题思路: 需要注意的点: 1、增加一个极小值的头节点方便后面代码的撰写。 2、记录尾节点进行判断,减少总体循环的次数。 3、记得取出要判断的点时,尾节点的next要指向next ...
分类:
编程语言 时间:
2020-04-22 13:18:25
阅读次数:
66
1. SGD的不足: ①呈“之”字型,迂回前进,损失函数值在一些维度的改变得快(更新速度快),在一些维度改变得慢(速度慢)- 在高维空间更加普遍 ②容易陷入局部极小值和鞍点: 局部最小值: 鞍点: ③对于凸优化而言,SGD不会收敛,只会在最优点附近跳来跳去 - 可以通过使用不固定的learning ...
分类:
其他好文 时间:
2020-02-05 09:42:37
阅读次数:
90
一、牛顿方法: 基本思想是利用迭代点$x_k$处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二次模型的极小点作为新的迭代点,并不断重复这一过程,直至求得满足精度的近似极小值。 对于f(x)=0,求解x; 初始化$\theta$ ,然后一直迭代:$\theta^{ ...
分类:
其他好文 时间:
2020-01-30 23:00:59
阅读次数:
88
梯度下降法 梯度下降法(英语:Gradient descent)是一个一阶最优化算法,通常也称为最速下降法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这 ...
分类:
其他好文 时间:
2020-01-24 17:28:40
阅读次数:
113