标签:没有 表示 基于 https 错误 pos 技术 过滤 ror
我们都知道进行自然语言处理的第一步就是分词,下面使用jieba模块对最近比较热的电视剧《人民的名义》进行分词,并对它进行一些简单的文本分析。
一、jieba模块中常用的方法说明(github):
jieba.cut
方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型jieba.cut_for_search
方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细jieba.cut
以及 jieba.cut_for_search
返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode),或者用jieba.lcut
以及 jieba.lcut_for_search
直接返回 listjieba.Tokenizer(dictionary=DEFAULT_DICT)
新建自定义分词器,可用于同时使用不同词典。jieba.dt
为默认分词器,所有全局分词相关函数都是该分词器的映射。最近学习python爬虫,为了练习一下,在书本网上爬去《人民的名义》,代码如下:
1 # -*- coding: utf-8 -*- 2 """ 3 Created on Sun Apr 16 16:24:32 2017 4 python爬去小说--人民的名义 5 @author: whb 6 """ 7 import urllib2 as p 8 import re 9 from bs4 import BeautifulSoup 10 #得到每个章节的url与标题 11 def find_html(url): 12 html=p.urlopen(url).read() 13 reg=re.compile(r‘<li class="n"><a href="(.*?)">(.*?)</a></li>‘) 14 cont=re.findall(reg,html) 15 url=[x[0] for x in cont] 16 name=[x[1] for x in cont] 17 return [name,url] 18 # 提取小说正文 19 def search_content(url_list): 20 html=p.urlopen(url_list).read() 21 soup=BeautifulSoup(html) 22 content=soup.find_all(‘p‘) 23 return content 24 #将内容保存文件中。 25 def save_content(url): 26 name,url=find_html(url) 27 for i in xrange(len(url)): 28 try: 29 print u‘正在下载:‘+str(name[i]) 30 f=open(str(name[i])+‘.txt‘,‘w‘) 31 url_list=‘http://www.bookben.com/‘+str(url[i]) 32 content=search_content(url_list) 33 print dir(content) 34 for x in xrange(len(content)-1): 35 txt=content[x].string 36 f.write(txt.encode("gbk",‘ignore‘))# 37 f.close() 38 except IOError: 39 print ‘open error‘+str(name[i]) 40 if __name__==‘__main__‘: 41 url=‘http://www.bookben.com/read/107_107305/‘ 42 save_content(url)
下面使用jieba.cut()方法对小说进行分词,结果发现一些小说中的名词的分词不如愿,例如如下:
print ‘/‘.join(jieba.cut("str"))
/侯亮/平/代表/反贪/总局/发出/的/抓捕/令/不能/忽视/,/万一出/问题/,/责任/在/我们/省/反贪局/啊/!/季/昌明/却/坚持/向/省委/副/书记/兼/政法委/书记/高育良/汇报/。
原因在于:在分词原理是按照最大概率法来分词,因为单字有一定概率,而“没有侯亮平,季昌明”等这些名词不含词典中,所以会被切割成单字。
提高分词的精准度的方法:自定义添加词典:jieba.load_userdict(file_name)
注:file_name的格式:1.每一行有三部分组成:1词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。2.file_name 若为路径或二进制方式打开的文件,则文件必须为 UTF-8 编码(在保存user_dict.txt文件时,另存为UTF-8编码格式即可)。3.词频省略时使用自动计算的能保证分出该词的词频
基本原理:提取重要的词条,过滤常见的词语。TF(team frequency)表示词频=(词语在文章中出现的次数之和)/(文章中的词语之和);IDF(Inverse document frequency)反文档频率=log((语料库中总文档之和)/(语料库中包含该词语的文档之和 )).最后它们的乘积为该词条的权重。
优点:简单易实现,但有时精度不高。缺点:不能区分词条的位置信息,在一篇文章中,有时往往是首段与尾段的权重比中间的词条权重大一些。没有反映词条的分布情况。
import jieba.analyse
关键词提取所使用逆向文件频率(IDF)文本语料库可以切换成自定义语料库的路径
1 content = open(file_name, ‘rb‘).read() 2 jieba.analyse.set_idf_path("../extra_dict/idf.txt.big"); 3 tags = jieba.analyse.extract_tags(content, topK=topK) 4 print(",".join(tags))
关键词提取所使用停止词(Stop Words)文本语料库可以切换成自定义语料库的路径
1 content = open(file_name, ‘rb‘).read() 2 jieba.analyse.set_stop_words("../extra_dict/stop_words.txt") 3 jieba.analyse.set_idf_path("../extra_dict/idf.txt.big"); 4 tags = jieba.analyse.extract_tags(content, topK=topK) 5 print(",".join(tags))
基本思想:
1 import jieba.posseg as pseg 2 words = pseg.cut("我爱北京天安门") 3 for word, flag in words: 4 ... print(‘%s %s‘ % (word, flag)) 5 ... 6 我 r 7 爱 v 8 北京 ns 9 天安门 ns
1.云词图(使用wordcloud模块)
从云词图中,我们可以看出:侯亮平,高育良,李达康,祁同伟等这些主要角色词条较大,符合小说的实际情况。
2.待续中。。。。
标签:没有 表示 基于 https 错误 pos 技术 过滤 ror
原文地址:http://www.cnblogs.com/whb-20160329/p/6737818.html