我们以crackme第三题为例: 双击打开后,会出现这个NAG。 我们放入die,查看信息: 发现是VB的程序。 载入OB: 这里是一个十分明显的vb程序的特点:一个push一个call,我们查看这个0x004067D4的地址: 然后我们往后数0x4C个数字(ctrl+G,输入004067D4+4C ...
分类:
其他好文 时间:
2020-07-04 15:10:25
阅读次数:
81
1. 每个人的工作(4.11 4.12) A. 已完成的工作 如上图所示为每个人完成的工作,颜色代表工作时长,长度代表得分量。 完成的博客: "关键前端代码注释" by 吴凡 B.下阶段计划完成的工作 前端后端分别学习技术并撰写博客(周三前在NAG公共博客上发) 后端添加网络层 前端使用模板美化界面 ...
分类:
其他好文 时间:
2020-04-12 20:48:22
阅读次数:
62
vb程序的反汇编效果有些不太好,这次学习了两种去nag的方法,记录一下,毕竟不太会常用 ...
分类:
其他好文 时间:
2020-02-24 23:52:39
阅读次数:
99
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢? 在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.0 ...
分类:
编程语言 时间:
2020-01-06 19:30:38
阅读次数:
136
[TOC] Momentum Momentum的迭代公式为: $$ v_t = \gamma v_{t 1} + \eta \nabla_\theta J(\theta) \\ \theta=\theta v_t $$ 其中$J(\cdot)$一般为损失函数。我们知道,一般的梯度下降,是没有$\ga ...
分类:
其他好文 时间:
2019-05-19 11:52:22
阅读次数:
135
原文地址:https://www.jianshu.com/p/7a049ae73f56 梯度下降优化基本公式:${\theta\leftarrow\theta \eta\cdot\nabla_\theta{J(\theta)}}$ 一、三种梯度下降优化框架 这三种梯度下降优化框架的区别在于每次更新模 ...
分类:
其他好文 时间:
2019-05-03 16:43:57
阅读次数:
112
目前最流行的5中优化器:Momentum(动量优化)、NAG(Nesterov梯度加速)、AdaGrad、RMSProp、Adam,所有的优化算法都是对梯度下降算法进行不断的优化,对原始梯度下降算法增加惯性和环境感知因素 Momentum优化 momentum优化的一个简单思想:考虑物体运动惯性,想 ...
分类:
其他好文 时间:
2019-04-23 14:24:30
阅读次数:
433
程序: 这个窗口显示这是一个需要去除的 Nag 窗口 点击“确定” 用 PEiD 看一下 这是一个用汇编语言写的程序 逆向: 用 OD 载入程序 Nag 窗口的标题和文本 右键 -> 查找 -> 所有参考文本字串 只有这两条 下一个断点,跑一下程序 该 NAG 窗口还是弹出来了 点击“确定” 然后关 ...
分类:
其他好文 时间:
2018-10-14 00:31:24
阅读次数:
291
程序: 打开程序 出现一个 NAG 窗口 这是主界面 点击 Exit 程序出现 NAG 窗口,然后退出 用 PEiD 看一下 是用 VC++ 6.0 写的程序 逆向: 用 OD 载入程序 跑一下程序 出现 NAG 窗口时暂停 按 Alt+K 显示调用堆栈 这个是 MFC 的对话框,双击来到它所在的地 ...
分类:
其他好文 时间:
2018-10-05 17:29:07
阅读次数:
298
程序: 运行 弹出 NAG 窗口,提示要花 20 美元注册 然后会进入主窗口 提示剩余 5 天的使用时间 点击,菜单栏 -> Help -> About 显示未注册版本 逆向: 用 OD 打开程序 首先把剩余 5 天的字符串作为切入点 先按 F9 运行一下程序 右键 -> 查找 -> 所有参考文本字 ...
分类:
其他好文 时间:
2018-09-07 23:15:42
阅读次数:
256