标签:
jieba.cut方法接受两个输入参数: 1) 第一个参数为需要分词的字符串 2)cut_all参数用来控制是否采用全模式
jieba.cut_for_search方法接受一个参数:需要分词的字符串,该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细
注意:待分词的字符串可以是gbk字符串、utf-8字符串或者unicode
jieba.cut以及jieba.cut_for_search返回的结构都是一个可迭代的generator,可以使用for循环来获得分词后得到的每一个词语(unicode),也可以用list(jieba.cut(...))转化为list
1 #encoding=utf-8 2 import jieba 3 4 seg_list = jieba.cut("我来到北京清华大学",cut_all=True) 5 print "Full Mode:", "/ ".join(seg_list) #全模式 6 7 seg_list = jieba.cut("我来到北京清华大学",cut_all=False) 8 print "Default Mode:", "/ ".join(seg_list) #精确模式 9 10 seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式 11 print ", ".join(seg_list) 12 13 seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式 14 print ", ".join(seg_li
output
【全模式】: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学 【精确模式】: 我/ 来到/ 北京/ 清华大学 【新词识别】:他, 来到, 了, 网易, 杭研, 大厦 (此处,“杭研”并没有在词典中,但是也被Viterbi算法识别出来了) 【搜索引擎模式】: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学,
标签:
原文地址:http://www.cnblogs.com/cppb/p/5974070.html