标签:dump lse fir 情况下 pytho asc 中文 记录 方便
1. 序列化一般用于二个地方:
1> 数据存储,如写文件,数据入库
2> 网络上传输数据的时候
2. 序列化/反序列化:
1> 序列化:从数据类型(int,dict,tuple,list等) --> 字符串的过程
2> 反序列化:从字符串 --> 数据类型的过程
3. json (常用模块):
1> 通用的序列化格式
2> 只有很少的一部分数据类型能通过json转化为字符串
3> json能序列化的数据类型有:数字,字符串,列表,字典,元组(序列化时当成列表序列化的)
#json dumps序列化方法 loads反序列化方法 import json dic={"k":"v"} print(type(dic),dic) str_d=json.dumps(dic) #序列化 print(type(str_d),str_d) #json格式: ‘{"k1":"v1"}‘ , 外面是一个单引号,内部的所有字符串都要使用双引号引起来 dic_d=json.loads(str_d) #反序列化 print(type(dic_d),dic_d)
4> dump:将数据序列化到文件中(只有字符串才能写入文件)
import json # dump:与文件相关的操作 dic = {‘a‘:‘中国‘,‘b‘:‘22‘} f=open(‘ff‘,‘w‘,encoding=‘utf-8‘) json.dump(dic,f,ensure_ascii=False) #序列化, ensure_ascii为False时,中文字符写入文件中后仍为中文
f.close()
5> load: 将文件中的字符中反序列化成原数据类型的数据
import json f=open(‘ff‘,‘r‘,encoding=‘utf-8‘) #ff是一个已存的文件,写了一个字典的数据
dic_d =json.load(f) #反序列化
f.close()
print(type(dic_d),dic_d)
重点:
a> dumps/loads: 直接操作内存中的数据类型;
b> dump/load:直接操作文件中的数据;
c> dump/load:dump可以将多次写入内容到文件中,但是写入后,load无法多次读出,因为不知道每次读到哪里;
d> 所以dump和load使用时,一次性写入全部内容,再一次性读出所有内容;
6> 如果想多次写入内容后,再多次读出来,怎么办?
import json #一个一个字典的写入 list_1 = [{‘a‘:‘中国‘},{‘b‘:‘22‘},{‘c‘:‘33‘}] f=open(‘ff‘,‘w‘,encoding=‘utf-8‘) for dic in list_1: str_dic=json.dumps(dic,ensure_ascii=False) f.write(str_dic+‘\n‘) f.close() #一行一行读出 f=open(‘ff‘,encoding=‘utf-8‘) list_2=[] for line in f: dic=json.loads(line.strip()) #strip()去掉换行 list_2.append(dic) f.close() print(list_2)
4. pickle:
1> 所有的python中的数据类型都可以通过pickle转化成字符串;
2> pickle序列化的内容只有python能识别;
3> 部分反序列化依赖python代码;
4> 同json一样,常用方法有 dumps/loads,dump/load;
5> dumps出来的内容为base格式(二进制)字符串;
6> dump和load时,对于文件的写入和读出,要用‘wb‘和‘rb’形式;
7> dump和load,可以多次dump内容写入文件,再多次load从文件中读出;
import pickle,time struct_time1=time.localtime(1000000000) struct_time2=time.localtime(2000000000) print(struct_time1) print(struct_time2) f=open(‘pickle_file‘,‘wb‘) pickle.dump(struct_time1,f) #可以多次dump写入 pickle.dump(struct_time2,f) f.close() f=open(‘pickle_file‘,‘rb‘) struct_time1=pickle.load(f) #再多次load读出 struct_time2=pickle.load(f) print(struct_time1.tm_year) print(struct_time2.tm_year)
5. shelve:
1> 操作简单,序列化句柄;
2> 使用句柄直接操作,非常方便;
3> 只有一个open方法,通过key来访问,用法类似字典;
import shelve f=shelve.open(‘shelve_file‘) f[‘firt‘]={‘int‘:10,‘float‘:9.5,‘string‘:‘Sample data‘} #直接对文件句柄f操作,就可以存入数据 f[‘second‘]={1,2.4,‘aa‘,(‘中国‘,‘bb‘)} #写入后,会生成一些后缀为.bak,.dat,.dir文件 f.close() f1=shelve.open(‘shelve_file‘) existing1=f1[‘firt‘] #取出数据时也只需要直接用key获取即可,但是若key不存在会报错 existing2=f1[‘second‘] f1.close() print(existing1) print(existing2)
4> shelve在默认情况下不会记录持久化对象的任务修改,需要在shelve.open()时修改默认参数writeback,否则对象的修改不会保存
import shelve f1=shelve.open(‘shelve_file‘) print(f1[‘firt‘]) f1[‘firt‘][‘new_value‘]=‘this was a new add value‘ print(f1[‘firt‘]) #新增加的内容没有保存下来 f1.close()
import shelve f1=shelve.open(‘shelve_file‘,writeback=True) print(f1[‘firt‘]) f1[‘firt‘][‘new_value‘]=‘this was a new add value‘ print(f1[‘firt‘]) #新增加的内容保存下来了!! f1.close()
5> writeback优化点:
a> 优化:让对象的持久化对用户更加的透明了;
b> 缺点:shelve在open()时增加额外内存,当DB在close()时,会将缓存中每个对象都重新写入DB,因为shelve无法知道缓存中哪些对象修改了,哪些对象没有修改;
标签:dump lse fir 情况下 pytho asc 中文 记录 方便
原文地址:https://www.cnblogs.com/quiet-sun/p/12307563.html