1. 实验环境配置 安装IDE :VS Code;安装Python,安装 jieba,hanLP等NLP工具。 简单的程序练习,不需要特别熟练,能在指导下完成操作即可。 做最简单中文分词程序测试环境。 2. 文本可视化:词云、关系图、热力图等 制作词云,进一步了解分词和词频。 https://blo ...
分类:
其他好文 时间:
2020-06-27 00:10:11
阅读次数:
88
Natural Language Toolkit http://www.nltk.org/book/ 干货!详述Python NLTK下如何使用stanford NLP工具包 ...
分类:
其他好文 时间:
2020-06-25 09:57:08
阅读次数:
48
众所周知, 斯坦福大学自然语言处理组 出品了一系列NLP工具包,但是大多数都是用Java写得,对于Python用户不是很友好。几年前我曾基于斯坦福Java工具包和NLTK写过一个简单的中文分词接口: Python自然语言处理实践: 在NLTK中使用斯坦福中文分词器 ,不过用起来也不是很方便。深度学习 ...
分类:
编程语言 时间:
2020-04-15 13:47:31
阅读次数:
191
在PC上搭建 StanfordCoreNLP + Python 开发环境,步骤如下: 1. 下载NLP工具包 下载地址: https://share.weiyun.com/5UJ1Gdi 将下载好的 放置于电脑的D盘 2. 安装 stanfordcorenlp (Python版接口) 使用清华的镜像 ...
分类:
编程语言 时间:
2020-02-17 01:07:42
阅读次数:
76
摘要:本文在Linux Ubuntu1804下Python3.6.5环境中实现了StanfordNLP的词性标注。<!--?xml:namespace prefix = "o" ns = "urn:schemas-microsoft-com:office:office" /--> 1. 写在前面 《 ...
分类:
编程语言 时间:
2018-11-25 13:20:47
阅读次数:
367
word2vec是google在2013年推出的NLP工具,特点是将所有的词向量化,这样词与词之间就可以定量地度量 它们之间的关系,挖掘之间的联系。 1. CBOW(输出中心词) CBOW模型的训练输入是某一个特征词的上下文相关的词对应的词向量,而输出就是这特定的一个词的词向量 我们上下文大小取值为 ...
分类:
其他好文 时间:
2018-11-20 21:42:50
阅读次数:
137
Boson:是一款语义挖掘工具,可以对文本内容进行情感分析,能够将文本按照预设的分类体系进行自动区分实现信息分类,能够从文本中发现有意义的信息从而进行实体识别,还能够自动对给定的文本进行话题聚类,将语义上相似的内容归为一类,有助于海量文档、资讯的整理,和话题级别的统计分析。 BosonNLP:中文语 ...
分类:
其他好文 时间:
2018-08-04 20:25:00
阅读次数:
141
"CoreNLP" 是由斯坦福大学开源的一套Java NLP工具,提供诸如:词性标注(part of speech (POS) tagger)、命名实体识别(named entity recognizer (NER))、情感分析(sentiment analysis)等功能。 【开源中文分词工具探析 ...
分类:
其他好文 时间:
2018-02-07 22:45:58
阅读次数:
902
https://www.jiqizhixin.com/articles/2017-09-09-5 AllenNLP 可以让你轻松地设计和评估几乎所有 NLP 问题上最新的深度学习模型,并同基础设施一起让这些模型自由运行在云端和你的笔记本电脑上。 链接:http://allennlp.org (htt ...
分类:
其他好文 时间:
2017-09-15 12:24:22
阅读次数:
238
自然语言处理 1. Java自然语言处理 LingPipe LingPipe是一个自然语言处理的Java开源工具包。LingPipe目前已有很丰富的功能,包括主题分类(Top Classification)、命名实体识别(Named Entity Recognition)、词性标注(Part-of ...
分类:
编程语言 时间:
2017-01-20 07:15:30
阅读次数:
1300