标签:mnt localhost str nsf mes type ike 字符串 nbsp
舆情分析项目
1、分析事件:重庆公交坠江原因
2、分析对象:
(1)网友评论(初级分类-分词匹配;高级分类-自然语言识别,映射人类情感和意图,比如:积极、消极、无奈、讽刺、建设、谩骂、理性分析、事后、和事佬等)
(2)评论者的公网IP(依据公网IP识别不同地域的网络用户,对本次事件的关注度)
(3)评论者的省份属性(同上)
3、数据来源:
新浪评论:http://comment5.news.sina.com.cn/comment/skin/default.html?channel=gn&newsid=comos-hnfikve6671738&group=0
4、其他:
准备数据:
(1)中国的行政区划数据,包括全国的省、市、县(参考csdn、民政部官网)
(2)世界的国家数据(参考csdn)
(一)舆情分析项目之数据准备:采集评论数据
1、采集字段
三个字段:评论、IP、省份
其他字段:收到点赞数等等
2、Python实现数据采集
文件结构
(1)python主代码
busremark.py中
import json import requests import pymysql import time as timeimport from mylog import Logger logger1 = Logger(logfile=‘log1.log‘, logname="log1", logformat=1).getlog() # 使用自定义日志对象 # 连接数据库 connect = pymysql.Connect( host=‘localhost‘, port=3306, user=‘root‘, passwd=‘root‘, db=‘analyze‘, charset=‘utf8‘ ) # 获取游标 cursor = connect.cursor() # 创建数据库语句 for page_num in range(1, 6001): # 从1采集到6000条评论 if page_num % 50 == 0: # 每采集50条数据,休息2秒 timeimport.sleep(2) url = "http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=gn&newsid=comos-hnfikve6671738&group=0&compress=0&ie=utf8&oe=utf8&page=" + str( page_num) + "&page_size=1&jsvar=loader_1541133929419_28637561" # url = "http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=gn&newsid=comos-hnfikve6671738&group=0&compress=0&ie=gbk&oe=gbk&page=1&page_size=2&jsvar=loader_1541133929419_28637561" headers = { ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘ } try: # 尝试采集 # 发出请求获取响应 response = requests.get(url, headers=headers) data_str = response.content.decode(‘unicode_escape‘) # 排除干扰字符串 data_str = data_str.lstrip("var loader_1541133929419_28637561=") # print(data_str) # str转字典 data_dict = json.loads(data_str) print(type(data_dict)) # 获取每次响应中的所有评论 all_remarks = data_dict[‘result‘][‘cmntlist‘] print(len(all_remarks)) i = 0 for c in all_remarks: # 遍历每次响应中的评论,并存入mysql i += 1 print(i, "*" * 100) nick = c["nick"] # 昵称 content = c["content"] # 评论 agree = int(c["agree"]) # 收到点赞 area = c["area"] # 地区 ip = c["ip"] # 源ip time = c["time"] # 评论发布时间 profile_img = c["profile_img"] # 头像 print(nick) print(content) print(agree) print(ip) print(time) print(profile_img) # sql操作 # 增加数据操作 sql_1 = "insert into all_remarks(nick, content, agree, area, ip, time, profile_img) values(%s,%s,%s,%s,%s,%s,%s)" data = (nick, content, agree, area, ip, time, profile_img) cursor.execute(sql_1, data) # 生成增加sql语句 connect.commit() # 确认永久执行增加 except Exception as e: # 采集异常处理 my_e = str(e) + " ==> " + str(url) logger1.warning(my_e) # 定义调试日志内容 # print(my_e) continue # 忽视异常,进行后面的采集
(2)python日志
mylog.py中
# 开发一个日志系统, 既要把日志输出到控制台, 还要写入日志文件 import logging # 用字典保存输出格式 format_dict = { 1: logging.Formatter(‘%(asctime)s - %(name)s - %(filename)s - %(levelname)s - %(message)s‘), 2: logging.Formatter(‘%(asctime)s - %(name)s - %(levelname)s - %(message)s‘), 3: logging.Formatter(‘%(asctime)s - %(name)s - %(levelname)s - %(message)s‘), 4: logging.Formatter(‘%(asctime)s - %(name)s - %(levelname)s - %(message)s‘), 5: logging.Formatter(‘%(asctime)s - %(name)s - %(levelname)s - %(message)s‘) } class Logger(): def __init__(self, logfile, logname, logformat): ‘‘‘ 指定保存日志的文件路径,日志级别,以及调用文件 将日志存入到指定的文件中 ‘‘‘ # 创建一个logger self.logger = logging.getLogger(logname) self.logger.setLevel(logging.DEBUG) # 创建一个handler,用于写入日志文件 fh = logging.FileHandler(logfile) fh.setLevel(logging.DEBUG) # 再创建一个handler,用于输出到控制台 ch = logging.StreamHandler() ch.setLevel(logging.DEBUG) # 定义handler的输出格式 # formatter = logging.Formatter(‘%(asctime)s - %(name)s - %(levelname)s - %(message)s‘) formatter = format_dict[int(logformat)] fh.setFormatter(formatter) ch.setFormatter(formatter) # 给logger添加handler self.logger.addHandler(fh) self.logger.addHandler(ch) def getlog(self): return self.logger if __name__ == ‘__main__‘: logger1 = Logger(logfile=‘log1.txt‘, logname="fox1", logformat=1).getlog() logger1.debug(‘i am debug‘) logger1.info(‘i am info‘) logger1.warning(‘i am warning‘) logger2 = Logger(logfile=‘log2.txt‘, logname="fox2", logformat=2).getlog() logger2.debug(‘i am debug2‘) logger2.info(‘i am info2‘) logger2.warning(‘i am warning2‘)
3、sql建表语句
/* Navicat MySQL Data Transfer Source Server : win7_local Source Server Version : 50717 Source Host : localhost:3306 Source Database : analyze Target Server Type : MYSQL Target Server Version : 50717 File Encoding : 65001 Date: 2018-11-02 17:12:24 */ SET FOREIGN_KEY_CHECKS=0; -- ---------------------------- -- Table structure for all_remarks -- ---------------------------- DROP TABLE IF EXISTS `all_remarks`; CREATE TABLE `all_remarks` ( `id` int(11) unsigned NOT NULL AUTO_INCREMENT, `nick` varchar(255) DEFAULT NULL, `content` text, `agree` int(10) DEFAULT NULL, `area` varchar(100) DEFAULT NULL, `ip` varchar(20) DEFAULT NULL, `time` datetime DEFAULT NULL ON UPDATE CURRENT_TIMESTAMP, `profile_img` varchar(255) DEFAULT NULL, PRIMARY KEY (`id`) ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
4、效果截图
以上工作仅实现了主要数据的准备,还有一些省份数据、国家名数据的准备。
之后就可以开始做数据分析了。
未完待续,敬请期待。
标签:mnt localhost str nsf mes type ike 字符串 nbsp
原文地址:https://www.cnblogs.com/andy9468/p/9897391.html