1.CSS权重 是指样式的优先级,有两条或多条样式作用于一个元素,权重高的那条样式对元素起作用,权重相同的,后写的样式会覆盖前面写的样式。 2.权重的等级 (1)!important,加在样式属性值后,权重值为10000 (2)内联样式,如:style="",权重值为1000 (3)ID选择器,如: ...
分类:
Web程序 时间:
2020-07-03 17:11:30
阅读次数:
79
选择器的权重 伪类 :hover 当鼠标悬浮在元素上方时,向元素添加样式 :active 向被激活的元素添加样式 :first-child 向元素的第一个子元素添加样式 :focus 向拥有键盘输入焦点的元素添加样式 :link 向未被访问的链接添加样式 :visited 向已被访问的链接添加样式 ...
分类:
Web程序 时间:
2020-07-03 15:14:41
阅读次数:
55
矩阵分解 Matrix Factorization 矩阵因子分解[Koren等人,2009]是推荐系统文献中一个成熟的算法。矩阵分解模型的第一个版本是由simonfunk在一篇著名的博客文章中提出的,在文章中描述了将交互矩阵分解的思想。后来由于2006年举行的Netflix竞赛而广为人知。当时,流媒 ...
分类:
其他好文 时间:
2020-07-01 20:05:29
阅读次数:
70
TF-IDF的定义及计算 最近在做一些NLP的研究,由于也是第一次做这个东西,其实还是发现很多有意思的东西。 相信很多做过NLP的人都应该接触过提取关键词的这个功能。现在有很多可以使用的第三方工具包可以很容易的来实现这个功能,比如snowNLP,jieba等,但是我们还是要做到知其然,知其所以然,所 ...
分类:
其他好文 时间:
2020-06-28 09:13:35
阅读次数:
129
感知机需要人工设定权重,而神经网络可以自动地从数据中学习到合适的权重参数。 激活函数(activation function)——将输入信号的总和转换为输出信号。激活函数的作用在于决定如何激活输入信号的总和。 阶跃函数——一旦输入超过阈值,就切换输出。一般而言,“朴素感知机”是指单层网络,指的是激活 ...
分类:
其他好文 时间:
2020-06-27 23:58:18
阅读次数:
134
DeepWalk 与词嵌入类似,图嵌入基本理念是基于相邻顶点的关系,将目的顶点映射为稠密向量,以数值化的方式表达图中的信息,以便在下游任务中运用。 Word2Vec根据词与词的共现关系学习向量的表示,DeepWalk受其启发。它通过随机游走的方式提取顶点序列,再用Word2Vec模型根据顶点和顶点的 ...
分类:
其他好文 时间:
2020-06-27 16:16:29
阅读次数:
194
目标 带权重的有向图上单源最短路径问题。且权重都为非负值。如果采用的实现方法合适,Dijkstra运行时间要低于Bellman-Ford算法。 思路 选择一个节点开始蔓延 计算自身到连接它的一级节点之间的距离, 全部作为候选集 在候选集中,找到距离最短的,对应的那个节点 删除这个节点在候选集中的信息 ...
分类:
编程语言 时间:
2020-06-26 10:40:55
阅读次数:
63
最近在研究深度学习的论文,但是由于基础薄弱,所以下网上看了好多关于感知器的文章,总结如下: 我们先从最简单的单层感知机学起,单层感知机是一个多输入单输出的模型。 输入:x1, x2 权重:w1, w2 偏置:b 输出:y 为什么要f映射呢? 我们知道f是激活函数,是非线性函数。 如果我们没有激活函数 ...
分类:
其他好文 时间:
2020-06-25 17:33:16
阅读次数:
52
梯度消失的原因: 在多层网络中,影响梯度大小的因素主要有两个:权重和激活函数的偏导。深层的梯度是多个激活函数偏导乘积的形式来计算,如果这些激活函数的偏导比较小(小于1)或者为0,那么梯度随时间很容易vanishing;相反,如果这些激活函数的偏导比较大(大于1),那么梯度很有可能就会explodin ...
分类:
其他好文 时间:
2020-06-25 17:19:23
阅读次数:
50
背景 了解深度学习中的梯度爆炸与消失的原因,及如何处理梯度爆炸与消失。 梯度消失 梯度消失是激活函数和权重矩阵初始化值,这两个因素决定的。 sigmoid函数,求导的最大值为0.25 根据链式求导法则:导数小于0.25,如果初始化的W值,再小于1,这样逐个相乘后,会导致偏差为0,最终导致网路中的参数 ...
分类:
其他好文 时间:
2020-06-24 17:49:19
阅读次数:
48