码迷,mamicode.com
首页 >  
搜索关键字:生产网络改造 单模光模块 ios导入 xmodem 堆叠    ( 647个结果
docker--镜像操作
5 docker 镜像操作 Docker 镜像是容器的基础。镜像是一个有序集合,其中包含根文件系统更改和在容器运 行时中使用的相应执行参数。镜像通常 包含堆叠在彼此之上的联合分层文件系统。镜像 没有状态并且始终不会发生更改。 当运行容器时,使用的镜像如果在本地中不存在, docker 就会自动从 d ...
分类:其他好文   时间:2019-11-22 13:42:09    阅读次数:129
bert系列一:《Attention is all you need》论文解读
论文创新点: 多头注意力 transformer模型 Transformer模型 上图为模型结构,左边为encoder,右边为decoder,各有N=6个相同的堆叠。 encoder 先对inputs进行Embedding,再将位置信息编码进去(cancat方式),位置编码如下: 然后经过多头注意力 ...
分类:其他好文   时间:2019-11-15 12:13:50    阅读次数:90
数据结构 -- 栈(Stack)
一、栈的简介 定义 栈(英语:stack)又称为堆栈或堆叠,栈作为一种数据结构,它按照先进后出的原则存储数据,先进入的数据被压入栈底,最后的数据在栈顶,需要读数据的时候从栈顶开始弹出数据(最后一个数据被第一个读出来)。 由于堆叠数据结构只允许在一端进行操作,因而按照后进先出(LIFO == Last ...
分类:其他好文   时间:2019-11-06 22:52:31    阅读次数:123
2019强网杯部分misc&web
0x01 前言 前两天菜鸡+x和几个大哥算是正式参加了一次ctf的线上赛,也是第一次参加这种比赛(前一段时间巨佬也给了我们一个西班牙的比赛,不过不算是正式参赛,做题的时候,比赛已经结束了),没想到出师不利,菜的一B,除了一个证明你签了到的签到题,一道题也没有弄出来,今天的我也是一个卑微的弟弟啊!比赛 ...
分类:Web程序   时间:2019-11-03 18:16:03    阅读次数:308
图示详解BERT模型的输入与输出
一、BERT整体结构 BERT主要用了Transformer的Encoder,而没有用其Decoder,我想是因为BERT是一个预训练模型,只要学到其中语义关系即可,不需要去解码完成具体的任务。整体架构如下图: 多个Transformer Encoder一层一层地堆叠起来,就组装成了BERT了,在论 ...
分类:其他好文   时间:2019-11-03 14:43:43    阅读次数:2446
到处抄来的SUCTF2019 web wp
0x01 EasySQL 这是一个考察堆叠注入的题目,但是这道题因为作者的过滤不够完全所以存在非预期解 非预期解 直接构造 *,1 这样构造,最后拼接的查询语句就变成了 select *,1||flag from Flag,可以直接得到当前表中的全部内容,就能够直接获得flag 正常解题 堆叠注入, ...
分类:Web程序   时间:2019-11-02 10:05:15    阅读次数:90
torch_07_卷积神经网络案例分析
1. LeNet(1998) 2.AlexNet(2012):层数更深,同时第一次引入了激活层ReLU,在全连接层引入了Dropout层防止过拟合 3.VGGNet(2014):有16~19层网络,使用了3*3的卷积滤波器和2*2的池化层。只是对网络层进行不断的堆叠,并没有太大的创新,增加深度缺失可 ...
分类:其他好文   时间:2019-10-28 21:18:55    阅读次数:108
Python之pandas用法
Python之pandas用法 导入 Series 用pandas的Series函数从数组或列表中创建一个可自定义下标(index)并自动维护标号索引的一维数组 其中index和values都是可迭代的对象,并且可以像dict那样进行下标访问 这里有一些小trick 用loc和iloc分别表示访问自 ...
分类:编程语言   时间:2019-10-26 01:37:08    阅读次数:107
强网杯 2019]随便注(堆叠注入,Prepare、execute、deallocate)
然后就是今天学的新东西了,堆叠注入。 1';show databases; # 1';show tables; # 发现两个表1919810931114514、words 依次查询两张表的字段 1'; show columns from 表名; # 不过有点问题,只有words有回显。(翻博客发现数 ...
分类:其他好文   时间:2019-10-23 00:35:40    阅读次数:248
multi head attention
multi-head attention ■ 论文 | Attention Is All You Need ■ 链接 | https://www.paperweekly.site/papers/224 ■ 源码 | https://github.com/Kyubyong/transformer ■ ...
分类:其他好文   时间:2019-10-15 14:51:44    阅读次数:113
647条   上一页 1 ... 10 11 12 13 14 ... 65 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!