自查询分类 按照返回的结果集区分子查询 标量子查询: 那些只返回一个单一值的子查询称之为标量子查询 SELECT (SELECT m1 FROM t1 LIMIT 1); SELECT * FROM t1 WHERE m1 = (SELECT MIN(m2) FROM t2); ...
分类:
其他好文 时间:
2020-02-28 14:10:00
阅读次数:
81
摘要:本文提出了一种计算非超奇异椭圆曲线上椭圆标量乘法的算法定义为GF(2^m)。该算法是基于采用了文章[8]方法的文章[1]中所述方法的优化版本。我们的算法在硬件和软件上都很容易实现,适用于GF(2^m)上的任何椭圆曲线,不需要预先计算一个点的倍数,平均速度比标准草案IEEE P1363中描述的加 ...
分类:
其他好文 时间:
2020-02-25 00:24:39
阅读次数:
155
一、Tensor用于自动求梯度 "tensor"这个单词?般可译作“张量”,张量可以看作是?个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是?维张量。 在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的 包能够根据输?和前向传播过程?动构建计算图 ...
分类:
其他好文 时间:
2020-02-21 00:11:32
阅读次数:
60
#进阶7:子查询 含义:出现在其他语句中的select语句,称为子查询或者内查询 外部的查询语句,成为主查询或者外查询 分类: 按照子查询出现的位置: select后面: 仅仅支持标量子查询 from后面: 支持表子查询 where或者having后面; 标量子查询 列子查询 行子查询 EXISTS ...
分类:
数据库 时间:
2020-02-20 00:00:42
阅读次数:
106
卷积神经网络 二维卷积层 ?维卷积层将输?和卷积核做互相关运算,并加上?个标量偏差来得到输出。卷积层的模型参数包括了卷积核和标量偏差。在训练模型的时候,通常我们先对卷积核随机初始化,然后不断迭代卷积核和偏差。 二维互相关运算(cross correlation) 互相关运算和卷积运算 为了得到卷积运 ...
分类:
其他好文 时间:
2020-02-19 21:06:02
阅读次数:
125
含义:出现在其它语句中的select语句,称为子查询或内查询 外部的语句可以是 insert、update、delete、selectselect在外部的查询语句,称为主查询或外查询 分类:按子查询出现的位置:SELECT后:仅仅支持标量子查询 FROM后:支持表子查询 WHERE或HAVING后: ...
分类:
其他好文 时间:
2020-02-18 09:35:32
阅读次数:
91
理论部分: 矢量计算 在模型训练或预测时,我们常常会同时处理多个数据样本并用到矢量计算。在介绍线性回归的矢量计算表达式之前,让我们先考虑对两个向量相加的两种方法。 向量相加的一种方法是,将这两个向量按元素逐一做标量加法。 向量相加的另一种方法是,将这两个向量直接做矢量加法。 线性回归的基本要素 模型 ...
分类:
其他好文 时间:
2020-02-14 18:22:13
阅读次数:
90
梯度与反向传播 1.对于一个二元函数f(x, y),有?$\nabla f = [\frac{\partial f}{\partial x} , \frac{\partial f}{\partial y}]$ 因此可知,梯度是一个向量而不是一个标量 2.利用链式法则解释何为反向传播: f(x,y,z ...
分类:
其他好文 时间:
2020-02-12 16:42:11
阅读次数:
99
/* 给定数组a[],表示每种资源数目标量,一开始都是0 每次增,删,改一个三元组(s,t,u):如果资源s数量t,那么资源u+1,可链式增加 问每次修改后达到目标资源的最少用时 结论:直接开数组cnt[i]累计每种资源通过三元组增加的值,多出a[i]的部分去掉就是贡献 */ #include<bi ...
分类:
其他好文 时间:
2020-02-11 00:55:07
阅读次数:
73
1、svg绘制出来的每一个图形的元素都是独立的DOM节点,能够方便的绑定事件或用来修改。canvas输出的是一整幅画布; 2、svg输出的图形是矢量图形,后期可以修改参数来自由放大缩小,不会是真和锯齿。而canvas输出标量画布,就像一张图片一样,放大会失真或者锯齿 https://www.cnbl ...
分类:
其他好文 时间:
2020-02-10 11:54:23
阅读次数:
60