码迷,mamicode.com
首页 > 其他好文 > 详细

中英文词频统计

时间:2018-09-29 10:19:57      阅读:191      评论:0      收藏:0      [点我收藏+]

标签:ever   str   文本文件   ace   字符   lower   分词   rdl   切片   

步骤:

1.准备utf-8编码的文本文件file
2.通过文件读取字符串 str
3.对文本进行预处理
4.分解提取单词 list
5.单词计数字典 set , dict
6.按词频排序 list.sort(key=)
7.排除语法型词汇,代词、冠词、连词等无语义词
8.输出TOP(20)

英文词频统计

with open (‘English.txt‘,‘r‘) as fb:
     content = fb.read()
# 清洗数据
import string
content = content.lower() # 格式化数据,转为小写
for i in string.punctuation : # 去除所有标点符号
    content = content.replace(i,‘ ‘)
wordList = content.split() # 切片分词
# 统计单词数量
data = {}
for word in wordList :
    data[word] = data.get(word,0) +1
# 排序
hist = []
for key,value in data.items():
    hist.append([value,key])
hist.sort(reverse = True) # 降序
# 前20个
for i in range(20):
    print(hist[i])

技术分享图片

中文词频统计


with open (‘Chinese.txt‘,‘r‘) as fb:
     content = fb.read()
# 清洗数据
bd = ‘,。?!;:‘’“”【】‘
for word in content :
    content = content.replace(bd,‘ ‘)
# 统计出词频字典
wordDict = {}
for word in content :
    wordDict[word] = content.count(word)
wordList = list(wordDict.items())
# 排序
wordList.sort(key=lambda x: x[1], reverse=True)
# TOP20
for i in range(20):
    print(wordList[i])

技术分享图片

中英文词频统计

标签:ever   str   文本文件   ace   字符   lower   分词   rdl   切片   

原文地址:https://www.cnblogs.com/vitan/p/9722046.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!