隐写 效果 隐写前 隐写后 灰度值直方图差别 部分源码 分析 效果 由于二次隐写的随机性,分析图片存在误差,但能够看出是否被隐写 原图 隐写后 部分源码 相关链接 项目链接 "linzijie1998/lsb_steg_analysis" 参考文档 "隐写与隐写分析" ...
分类:
编程语言 时间:
2019-06-18 21:38:45
阅读次数:
279
一、K均值聚类算法 算法步骤如下: 1、初始化 已知数据集合X,及事先指定聚类的总类数N,在X中随机选取N个对象作为初始的聚类中心。 2、设定迭代终止条件 通常设置最大循环次数或者聚类中心的变化误差。 3、更新样本对象所属类 根据距离准则将数据对象分配到距离最接近的类。 4、更新类的中心位置 将每一 ...
分类:
其他好文 时间:
2019-06-17 14:09:59
阅读次数:
124
import numpy as npdef compute_error_points(b, w, points): total_error = 0 for i in range(0, len(points)): x = points[i, 0] y = points[i, 1] # 计算均方误差 t ...
分类:
其他好文 时间:
2019-06-14 00:53:51
阅读次数:
112
一、实验目的:熟悉变换编码的图像压缩方法 二、实验内容:以所给图像为例,采用dct进行图像压缩编码,通过改变模板矩阵中非零元素的个数,得到不同缩编码图像, 根据公式 ,编写程序计算原图像和dct变换后得到的图像之间的均方误差。用到的matlab函数为im2double,dctmtx,blkproc。 ...
分类:
其他好文 时间:
2019-06-13 18:46:09
阅读次数:
172
第02章:数据类型和运算符一、概述:1、数据类型:int、float、char、boolean2、运算符:算术运算符、赋值运算符、关系运算符、逻辑运算符、位运算符(了解即可)、条件运算符3、基本数据类型的类型转换:自动类型转换、强制类型转换。二、重点内容:1、标识符:必须以字母、下划线、美元符$开头... ...
分类:
编程语言 时间:
2019-06-09 18:16:47
阅读次数:
115
基本概念 利用线性的方法,模拟因变量与一个或多个自变量之间的关系。自变量是模型输入值,因变量是模型基于自变量的输出值。 因变量是自变量线性叠加和的结果。 线性回归模型背后的逻辑——最小二乘法计算线性系数 最小二乘法怎么理解? 它的主要思想就是求解未知参数,使得理论值与观测值之差(即误差,或者说残差) ...
分类:
编程语言 时间:
2019-06-08 11:41:16
阅读次数:
115
希腊字母读音 α_β_γ_δ_ε_ζ_η_θ_ι_κ_λ_μ_ν 大写 小写 中文名 英文注音 意义A α 阿尔法 Alpha 角度;系数B β 贝塔 Beta 磁通系数;角度;系数Γ γ 伽玛 Gamma 电导系数(小写)Δ δ 德尔塔 Delta 变动;屈光度;方程判别式(大写);允许误差(小写 ...
分类:
其他好文 时间:
2019-06-04 16:19:26
阅读次数:
132
Neural Networks =============== 使用torch.nn包来构建神经网络。 上一讲已经讲过了 ,``nn autograd``包来定义模型并求导。 一个 包含各个层和一个 方法,该方法返回 。 例如: 它是一个简单的前馈神经网络,它接受一个输入,然后一层接着一层地传递,最 ...
分类:
Web程序 时间:
2019-06-02 17:54:49
阅读次数:
186
bp(back propagation)修改每层神经网络向下一层传播的权值,来减少输出层的实际值和理论值的误差 其实就是训练权值嘛 训练方法为梯度下降法 其实就是高等数学中的梯度,将所有的权值看成自变量,误差E作为因变量 即E=f(w1,w2,w3,....,wk)//这些w就是每一层向下一层转移的 ...
分类:
其他好文 时间:
2019-06-01 21:33:35
阅读次数:
101
为什么GAN不能直接用于NLP中? 生成图像是用随机的向量做实值的映射变换,是连续的过程。因此可以将判别器的误差反向传播到生成器。 在自然语言处理中,encoder解码生成文本的过程中,模型生成词的过程其实是在词表中选词的过程,它是根据当前网络输出的词语的整个概率分布,选取概率最大的词。这个选词的过 ...
分类:
其他好文 时间:
2019-06-01 21:25:10
阅读次数:
111