一、结巴中文分词采用的算法
二、结巴中文分词支持的分词模式
目前结巴分词支持三种分词模式:
<span style="font-size:14px;"><pre name="code" class="python"># -*- coding:utf-8 -*- import jieba text = '我来到北京清华大学' default_mode =jieba.cut(text) full_mode = jieba.cut(text,cut_all=True) search_mode = jieba.cut_for_search(text) print "精确模式:","/".join(default_mode) print "全模式:","/".join(full_mode) print "搜索引擎模式:","/".join(search_mode) 精确模式: 我/来到/北京/清华大学 全模式: 我/来到/北京/清华/清华大学/华大/大学 搜索引擎模式: 我/来到/北京/清华/华大/大学/清华大学</span>
上述代码解释:
三、结巴中文分词的其他功能
1、添加或管理自定义词典
结巴的所有字典内容存放在dict.txt,你可以不断的完善dict.txt中的内容。
2、关键词抽取
通过计算分词后的关键词的TF/IDF权重,来抽取重点关键词。
3.词性标注
对一句话进行切分后,对每个词进行词性标注,是名词还是动词
具体示例:
<span style="font-size:14px;"># -*- coding:utf-8 -*- import jieba.analyse text = "结巴中文分词模块是一个非常好的Python分词组件" tags = jieba.analyse.extract_tags(text,2) print "关键词抽取:","/".join(tags) 关键词抽取: 分词/Python</span>
<span style="font-size:14px;">#! /usr/bin/env python2.7 #coding:utf-8 import jieba import jieba.posseg print "Full Mode:","/".join(jieba.cut('始游泳')) print "Full Mode:","/".join(jieba.cut('过郭美美')) s=["我勒个去","费打电话","响全世界","线情人"] for i in s: pos=[] seg=jieba.posseg.cut(i) for j in seg: print j.word,'/',j.flag,'#', pos.append([j.word,j.flag]) print #---------------------------------- string="当我输给青雉的时候就在想,在以后的航海中再遇到像他那么强的对手的时候" seg=jieba.posseg.cut(string) pos=[] for i in seg: pos.append([i.word,i.flag]) for i in pos: print i[0],'/',i[1],"#",</span>
输出结果:
<span style="font-size:14px;">Full Mode:Building prefix dict from E:\Python27\lib\site-packages\jieba\dict.txt ... Loading model from cache c:\users\shifeng\appdata\local\temp\jieba.cache Loading model cost 0.941999912262 seconds. Prefix dict has been built succesfully. 始/游泳 Full Mode: 过/郭美美 我 / r # 勒 / v # 个 / q # 去 / v # 费 / v # 打电话 / l # 响 / zg # 全世界 / n # 线 / n # 情人 / n # 当 / p # 我 / r # 输给 / v # 青雉 / n # 的 / uj # 时候 / n # 就 / d # 在 / p # 想 / v # , / x # 在 / p # 以后 / f # 的 / uj # 航海 / n # 中 / f </span>
版权声明:本文为博主原创文章,未经博主允许不得转载。
原文地址:http://blog.csdn.net/gamer_gyt/article/details/48089403