看了一个教程:https://www.cnblogs.com/wkfvawl/p/9487165.html 有些不懂的地方自己查阅了一下 键值的添加,获得文件中相同字符出现的次数, counts = ,counts.get(word,0) 一个常用的统计词频的方法 txt = "a b c d a ...
分类:
编程语言 时间:
2021-06-06 18:55:44
阅读次数:
0
安装方式 首选pip安装,pip安装失败选择自定义安装、文件安装,一般windows系统pip安装有时会失败 pip安装 pip -h 查看指令 自定义安装 路径: https://www.scipy.org/scipylib/download.html 文件安装路径: http://www.lfd ...
分类:
编程语言 时间:
2021-06-02 14:24:22
阅读次数:
0
from wordcloud import WordCloudfrom scipy.misc import imreadimport matplotlib.pyplot as pltimport jieba def read_deal_text(): with open("ciyun.txt","r ...
分类:
其他好文 时间:
2021-04-29 12:18:48
阅读次数:
0
from PIL import Image import wordcloud import numpy as np import matplotlib.pyplot as plt import jieba #文本处理 def f(): with open('停用词.txt','r',encoding ...
分类:
其他好文 时间:
2021-04-28 12:10:50
阅读次数:
0
from PIL import Image import wordcloud import numpy as np import matplotlib.pyplot as plt import jieba #文本处理 def f(): with open('停用词.txt','r',encoding ...
分类:
其他好文 时间:
2021-04-28 12:10:30
阅读次数:
0
django入门到精通⑥消息管理器的升级处理,对关键词进行过滤示例# 安装分词工具(python37_django2) D:\python\message_test>pip install jieba 设置message_test/settings.py 1.自定义分词工具app/templatet ...
分类:
其他好文 时间:
2021-01-07 12:05:08
阅读次数:
0
1、jieba库基本介绍 (1)、jieba库概述 jieba是优秀的中文分词第三方库 -中文文本需要通过分词获得单个的词语 - jieba是优秀的中文分词第三方库,需要额外安装 - jieba库提供三种分词模式,最简单只需掌握一个函数 (2)、jieba分词的原理 Jieba分词依靠中文词库 - ...
分类:
其他好文 时间:
2020-12-09 12:09:11
阅读次数:
6
目录 jieba 分词 ''' 函数 jieba.cut(sentence, cut_all=False) 参数 sentence为待分词的字符串 cut_all为是否为全模式 返回指 生成器 ''' import jieba sentence = "我考上了清华大学" seg_list = jie ...
分类:
编程语言 时间:
2020-12-04 11:19:10
阅读次数:
7
import jieba txt = open("西游记.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word in ...
分类:
其他好文 时间:
2020-11-20 11:30:40
阅读次数:
32
import jieba txt = open("聊斋志异白话简写版.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for w ...
分类:
其他好文 时间:
2020-11-20 11:24:38
阅读次数:
3