#1.读本地文件,ANSI为GBK编码 p=open("e:\\a.txt") content=fp.read() print(content) fp.close() #2.读 fp=open("e:\\a.txt","r",encoding="gbk") fp.readlines() fp.clo ...
分类:
编程语言 时间:
2021-01-02 11:43:30
阅读次数:
0
网站用户行为分析 步骤 1.1 本地数据集上传到数据仓库Hive 数据集下载与查看 数据集预处理 把数据集导入HDFS中 在Hive上创建数据库 1.2 Hive数据分析 给出数据分析需求 用select语句实现数据分析 数据分析结果查看与保存 1.3 Hive、MySQL、HBase数据互导 操作 ...
分类:
Web程序 时间:
2021-01-02 11:41:47
阅读次数:
0
自动导入模块:io 文件的打开:open函数,返回一个文件对象 fobj=open('文件路径') 文件的打开方式:mode='rb' r: 以读取的方式打开文件,文件不存在则报错 (默认值:rt) t: 文本模式 w:以写入的方式打开文件,,不能读取,有则清空,无则创建 a:以追加的方式打开文件, ...
分类:
其他好文 时间:
2021-01-02 11:10:40
阅读次数:
0
mysql读写分离方式 1.开发人员修改mysql操作,直接和数据库通信,实现简单快捷的读写分离和负载均衡,但是权则限独立分配。 2.amoeba,直接实现读写分离和负载均衡,不用修改代码,有很灵活的数据解决方案,自己分配账户,和后端数据库权限管理独立,权限处理不够灵活。 3.mysql-proxy ...
分类:
数据库 时间:
2021-01-02 10:27:53
阅读次数:
0
网站用户行为分析 步骤 1.1 本地数据集上传到数据仓库Hive 数据集下载与查看 数据集预处理 把数据集导入HDFS中 在Hive上创建数据库 1.2 Hive数据分析 给出数据分析需求 用select语句实现数据分析 数据分析结果查看与保存 1.3 Hive、MySQL、HBase数据互导 操作 ...
分类:
Web程序 时间:
2020-12-31 12:08:34
阅读次数:
0
Hadoop3 No FileSystem for scheme "hdfs" 异常信息: org.apache.hadoop.fs.UnsupportedFileSystemException: No FileSystem for scheme "hdfs" at org.apache.hadoo ...
分类:
其他好文 时间:
2020-12-31 11:55:00
阅读次数:
0
同样为了考试而写= = 规定日志文件的字段数paraNum就可以使用了 public class TestLog { final int paraNum = 6; String[] args = new String[paraNum]; // 操作类型 // 用户名 // 商品号 // 数量 // ...
分类:
编程语言 时间:
2020-12-31 11:45:45
阅读次数:
0
二 HDFS部署 主要步骤如下:1. 配置Hadoop的安装环境;2. 配置Hadoop的配置文件;3. 启动HDFS服务;4. 验证HDFS服务可用。1‘ 查看是否存在hadoop安装目录 ls /usr/cstor/hadoop 如果没有,利用工具从本地导入hadoop安装文件。 查看jdk是否 ...
分类:
其他好文 时间:
2020-12-30 11:10:24
阅读次数:
0
安装依赖 yum install -y novacom-server.x86_64 libaio.x86_64 libaio-devel.x86_64 网站下载 https://downloads.mariadb.com/MaxScale/ 自己选择自己需要的版本 yum localinstall ...
分类:
数据库 时间:
2020-12-28 11:32:23
阅读次数:
0
前言Java的核心库java.io提供了全面的IO接口。包括:文件读写、标准设备输出等。Java中IO是以流为基础进行输入输出的,所有数据被串行化写入输出流,或者从输入流读入。由于后面需要使用Linux,所以相对来说,IO流还是很重要的。通过多篇博文,将Java中的IO的方方面面过了一遍,对我来说是一个学习和提高的过程,也为Java中的IO系列博文能给后来的学习者带来便利。知识点都过了一遍,要总结
分类:
其他好文 时间:
2020-12-25 13:18:21
阅读次数:
0