tensorflow是google在2015年开源的深度学习框架 tf中有word2vec,seq2seq ,所以我这里先学习tensorflow,然后再实现word2vec和seq2seq 一、tensorflow 1.1 安装 win10,python3.5,记得安装 vc++ 看此blog h ...
分类:
其他好文 时间:
2017-08-14 17:28:46
阅读次数:
207
word2vec相关基础知识、下载安装參考前文:word2vec词向量中文文本相似度计算 文件夹: word2vec使用说明及源代码介绍 1.下载地址2.中文语料3.參数介绍4.计算相似词语5.三个词预測语义语法关系6.关键词聚类 1、下载地址 官网C语言下载地址:http://word2vec.g ...
分类:
编程语言 时间:
2017-08-13 15:19:15
阅读次数:
258
两轮技术骨干,一轮技术总监,最后CTO,然后hr。总共四轮技术+hr,还是小有收获的。 总体觉得面试问题灵活,难度中和公司业务衔接的知识点结合强。下面说下具体的流程: 一、一面 1、两道代码(时间复杂度) 2、k-means的伪码(提及了EM) 3、项目有挑战的地方,调参 4、讲解word2vec ...
分类:
编程语言 时间:
2017-08-11 21:10:41
阅读次数:
148
http://www.hankcs.com/nlp/word2vec.html http://www.cnblogs.com/peghoty/p/3857839.html word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vector 的工具包,它简单、高效,因此 ...
分类:
其他好文 时间:
2017-08-08 10:58:24
阅读次数:
147
在word2vec原理篇中,我们对word2vec的两种模型CBOW和Skip-Gram,以及两种解法Hierarchical Softmax和Negative Sampling做了总结。这里我们就从实践的角度,使用gensim来学习word2vec。 1. gensim安装与概述 gensim是一 ...
分类:
其他好文 时间:
2017-08-03 15:03:39
阅读次数:
2399
'''input: words - the original word list n_words - the number of used words output: data - a list with the same length of input words every element in ...
分类:
其他好文 时间:
2017-07-30 13:57:18
阅读次数:
228
卷积神经网络发展趋势。Perceptron(感知机),1957年,Frank Resenblatt提出,始祖。Neocognitron(神经认知机),多层级神经网络,日本科学家Kunihiko fukushima,20世纪80年代提出,一定程度视觉认知功能,启发卷积神经网络。LeNet-5,CNN之 ...
分类:
其他好文 时间:
2017-07-30 11:40:52
阅读次数:
233
架构:skip-gram(慢、对罕见字有利)vs CBOW(快) · 训练算法:分层softmax(对罕见字有利)vs 负采样(对常见词和低纬向量有利) · 欠采样频繁词:可以提高结果的准确性和速度(适用范围1e-3到1e-5) · 文本(window)大小:skip-gram通常在10附近,CBO ...
分类:
其他好文 时间:
2017-07-15 18:57:21
阅读次数:
150
一、介绍 word2vec是Google于2013年推出的开源的获取词向量word2vec的工具包。它包括了一组用于word embedding的模型,这些模型通常都是用浅层(两层)神经网络训练词向量。 Word2vec的模型以大规模语料库作为输入,然后生成一个向量空间(通常为几百维)。词典中的每个 ...
分类:
其他好文 时间:
2017-07-15 11:23:25
阅读次数:
2472
文本分类单层网络就够了。非线性的问题用多层的。 fasttext有一个有监督的模式,但是模型等同于cbow,只是target变成了label而不是word。 fastText有两个可说的地方:1 在word2vec的基础上, 把Ngrams也当做词训练word2vec模型, 最终每个词的vector ...
分类:
其他好文 时间:
2017-07-14 00:40:42
阅读次数:
11624