标签:抛出异常 3.2 添加 工作 basename format getc makedirs 2.0
在Python中,通常有这几种方式来表示时间:
1 import time 2 #--------------------------我们先以当前时间为准,让大家快速认识三种形式的时间 3 print(time.time()) # 时间戳:1487130156.419527 4 print(time.strftime("%Y-%m-%d %X")) #格式化的时间字符串:‘2017-02-15 11:40:53‘ 5 6 print(time.localtime()) #本地时区的struct_time 7 print(time.gmtime()) #UTC时区的struct_time
其中计算机认识的时间只能是‘时间戳‘格式,而程序员可处理的或者说人类能看懂的时间有: ‘格式化的时间字符串‘,‘结构化的时间‘ ,于是有了下图的转换关系
1 #--------------------------按图1转换时间 2 # localtime([secs]) 3 # 将一个时间戳转换为当前时区的struct_time。secs参数未提供,则以当前时间为准。 4 time.localtime() 5 time.localtime(1473525444.037215) 6 7 # gmtime([secs]) 和localtime()方法类似,gmtime()方法是将一个时间戳转换为UTC时区(0时区)的struct_time。 8 9 # mktime(t) : 将一个struct_time转化为时间戳。 10 print(time.mktime(time.localtime()))#1473525749.0 11 12 13 # strftime(format[, t]) : 把一个代表时间的元组或者struct_time(如由time.localtime()和 14 # time.gmtime()返回)转化为格式化的时间字符串。如果t未指定,将传入time.localtime()。如果元组中任何一个 15 # 元素越界,ValueError的错误将会被抛出。 16 print(time.strftime("%Y-%m-%d %X", time.localtime()))#2016-09-11 00:49:56 17 18 # time.strptime(string[, format]) 19 # 把一个格式化时间字符串转化为struct_time。实际上它和strftime()是逆操作。 20 print(time.strptime(‘2011-05-05 16:37:06‘, ‘%Y-%m-%d %X‘)) 21 #time.struct_time(tm_year=2011, tm_mon=5, tm_mday=5, tm_hour=16, tm_min=37, tm_sec=6, 22 # tm_wday=3, tm_yday=125, tm_isdst=-1) 23 #在这个函数中,format默认为:"%a %b %d %H:%M:%S %Y"。
1 #--------------------------按图2转换时间 2 # asctime([t]) : 把一个表示时间的元组或者struct_time表示为这种形式:‘Sun Jun 20 23:21:05 1993‘。 3 # 如果没有参数,将会将time.localtime()作为参数传入。 4 print(time.asctime())#Sun Sep 11 00:43:43 2016 5 6 # ctime([secs]) : 把一个时间戳(按秒计算的浮点数)转化为time.asctime()的形式。如果参数未给或者为 7 # None的时候,将会默认time.time()为参数。它的作用相当于time.asctime(time.localtime(secs))。 8 print(time.ctime()) # Sun Sep 11 00:46:38 2016 9 print(time.ctime(time.time())) # Sun Sep 11 00:46:38 2016
1 #--------------------------其他用法 2 # sleep(secs) 3 # 线程推迟指定的时间运行,单位为秒。
1 import random 2 3 print(random.random())#(0,1)----float 大于0且小于1之间的小数 4 5 print(random.randint(1,3)) #[1,3] 大于等于1且小于等于3之间的整数 6 7 print(random.randrange(1,3)) #[1,3) 大于等于1且小于3之间的整数 8 9 print(random.choice([1,‘23‘,[4,5]]))#1或者23或者[4,5] 10 11 print(random.sample([1,‘23‘,[4,5]],2))#列表元素任意2个组合 12 13 print(random.uniform(1,3))#大于1小于3的小数,如1.927109612082716 14 15 16 item=[1,3,5,7,9] 17 random.shuffle(item) #打乱item的顺序,相当于"洗牌" 18 print(item)
1 import random 2 3 def v_code(): 4 5 code = ‘‘ 6 for i in range(5): 7 8 num=random.randint(0,9) 9 alf=chr(random.randint(65,90)) 10 add=random.choice([num,alf]) 11 code += str(add) 12 return code 13 14 print(v_code())
os模块是与操作系统交互的一个接口
1 os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径 2 os.chdir("dirname") 改变当前脚本工作目录;相当于shell下cd 3 os.curdir 返回当前目录: (‘.‘) 4 os.pardir 获取当前目录的父目录字符串名:(‘..‘) 5 os.makedirs(‘dirname1/dirname2‘) 可生成多层递归目录 6 os.removedirs(‘dirname1‘) 若目录为空,则删除,并递归到上一级目录,如若也为空,则删除,依此类推 7 os.mkdir(‘dirname‘) 生成单级目录;相当于shell中mkdir dirname 8 os.rmdir(‘dirname‘) 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname 9 os.listdir(‘dirname‘) 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印 10 os.remove() 删除一个文件 11 os.rename("oldname","newname") 重命名文件/目录 12 os.stat(‘path/filename‘) 获取文件/目录信息 13 os.sep 输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/" 14 os.linesep 输出当前平台使用的行终止符,win下为"\t\n",Linux下为"\n" 15 os.pathsep 输出用于分割文件路径的字符串 win下为;,Linux下为: 16 os.name 输出字符串指示当前使用平台。win->‘nt‘; Linux->‘posix‘ 17 os.system("bash command") 运行shell命令,直接显示 18 os.environ 获取系统环境变量 19 os.path.abspath(path) 返回path规范化的绝对路径 20 os.path.split(path) 将path分割成目录和文件名二元组返回 21 os.path.dirname(path) 返回path的目录。其实就是os.path.split(path)的第一个元素 22 os.path.basename(path) 返回path最后的文件名。如何path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素 23 os.path.exists(path) 如果path存在,返回True;如果path不存在,返回False 24 os.path.isabs(path) 如果path是绝对路径,返回True 25 os.path.isfile(path) 如果path是一个存在的文件,返回True。否则返回False 26 os.path.isdir(path) 如果path是一个存在的目录,则返回True。否则返回False 27 os.path.join(path1[, path2[, ...]]) 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略 28 os.path.getatime(path) 返回path所指向的文件或者目录的最后存取时间 29 os.path.getmtime(path) 返回path所指向的文件或者目录的最后修改时间 30 os.path.getsize(path) 返回path的大小
1 在Linux和Mac平台上,该函数会原样返回path,在windows平台上会将路径中所有字符转换为小写,并将所有斜杠转换为饭斜杠。 2 >>> os.path.normcase(‘c:/windows\\system32\\‘) 3 ‘c:\\windows\\system32\\‘ 4 5 6 规范化路径,如..和/ 7 >>> os.path.normpath(‘c://windows\\System32\\../Temp/‘) 8 ‘c:\\windows\\Temp‘ 9 10 >>> a=‘/Users/jieli/test1/\\\a1/\\\\aa.py/../..‘ 11 >>> print(os.path.normpath(a)) 12 /Users/jieli/test1
1 #方式一: 2 import os 3 #具体应用 4 import os,sys 5 possible_topdir = os.path.normpath(os.path.join( 6 os.path.abspath(__file__), 7 os.pardir, #上一级 8 os.pardir, 9 os.pardir 10 )) 11 sys.path.insert(0,possible_topdir) 12 13 14 #方式二: 15 os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
1 sys.argv 命令行参数List,第一个元素是程序本身路径 2 sys.exit(n) 退出程序,正常退出时exit(0) 3 sys.version 获取Python解释程序的版本信息 4 sys.maxint 最大的Int值 5 sys.path 返回模块的搜索路径,初始化时使用PYTHONPATH环境变量的值 6 sys.platform 返回操作系统平台名称
1 import sys,time 2 3 for i in range(50): 4 sys.stdout.write(‘%s\r‘ %(‘#‘*i)) 5 sys.stdout.flush() 6 time.sleep(0.1) 7 8 ‘‘‘ 9 注意:在pycharm中执行无效,请到命令行中以脚本的方式执行 10 ‘‘‘
高级的 文件、文件夹、压缩包 处理模块
shutil.copyfileobj(fsrc, fdst[, length])
将文件内容拷贝到另一个文件中
1 import shutil 2 3 shutil.copyfileobj(open(‘old.xml‘,‘r‘), open(‘new.xml‘, ‘w‘))
shutil.copyfile(src, dst)
拷贝文件
1 shutil.copyfile(‘f1.log‘, ‘f2.log‘) #目标文件无需存在
shutil.copymode(src, dst)
仅拷贝权限。内容、组、用户均不变
1 shutil.copymode(‘f1.log‘, ‘f2.log‘) #目标文件必须存在
shutil.copystat(src, dst)
仅拷贝状态的信息,包括:mode bits, atime, mtime, flags
1 shutil.copystat(‘f1.log‘, ‘f2.log‘) #目标文件必须存在
shutil.copy(src, dst)
拷贝文件和权限
1 import shutil 2 3 shutil.copy(‘f1.log‘, ‘f2.log‘)
shutil.copy2(src, dst)
拷贝文件和状态信息
1 import shutil 2 3 shutil.copy2(‘f1.log‘, ‘f2.log‘)
shutil.ignore_patterns(*patterns)
shutil.copytree(src, dst, symlinks=False, ignore=None)
递归的去拷贝文件夹
1 import shutil 2 3 shutil.copytree(‘folder1‘, ‘folder2‘, ignore=shutil.ignore_patterns(‘*.pyc‘, ‘tmp*‘)) #目标目录不能存在,注意对folder2目录父级目录要有可写权限,ignore的意思是排除
1 import shutil 2 3 shutil.copytree(‘f1‘, ‘f2‘, symlinks=True, ignore=shutil.ignore_patterns(‘*.pyc‘, ‘tmp*‘)) 4 5 ‘‘‘ 6 通常的拷贝都把软连接拷贝成硬链接,即对待软连接来说,创建新的文件 7 ‘‘‘
shutil.rmtree(path[, ignore_errors[, onerror]])
递归的去删除文件
1 import shutil 2 3 shutil.rmtree(‘folder1‘)
shutil.move(src, dst)
递归的去移动文件,它类似mv命令,其实就是重命名。
1 import shutil 2 3 shutil.move(‘folder1‘, ‘folder3‘)
shutil.make_archive(base_name, format,...)
创建压缩包并返回文件路径,例如:zip、tar
创建压缩包并返回文件路径,例如:zip、tar
1 #将 /data 下的文件打包放置当前程序目录 2 import shutil 3 ret = shutil.make_archive("data_bak", ‘gztar‘, root_dir=‘/data‘) 4 5 6 #将 /data下的文件打包放置 /tmp/目录 7 import shutil 8 ret = shutil.make_archive("/tmp/data_bak", ‘gztar‘, root_dir=‘/data‘)
shutil 对压缩包的处理是调用 ZipFile 和 TarFile 两个模块来进行的,详细:
1 import zipfile 2 3 # 压缩 4 z = zipfile.ZipFile(‘laxi.zip‘, ‘w‘) 5 z.write(‘a.log‘) 6 z.write(‘data.data‘) 7 z.close() 8 9 # 解压 10 z = zipfile.ZipFile(‘laxi.zip‘, ‘r‘) 11 z.extractall(path=‘.‘) 12 z.close()
1 import tarfile 2 3 # 压缩 4 >>> t=tarfile.open(‘/tmp/egon.tar‘,‘w‘) 5 >>> t.add(‘/test1/a.py‘,arcname=‘a.bak‘) 6 >>> t.add(‘/test1/b.py‘,arcname=‘b.bak‘) 7 >>> t.close() 8 9 10 # 解压 11 >>> t=tarfile.open(‘/tmp/egon.tar‘,‘r‘) 12 >>> t.extractall(‘/egon‘) 13 >>> t.close()
之前我们学习过用eval内置方法可以将一个字符串转成python对象,不过,eval方法是有局限性的,对于普通的数据类型,json.loads和eval都能用,但遇到特殊类型的时候,eval就不管用了,所以eval的重点还是通常用来执行一个字符串表达式,并返回表达式的值。
1 import json 2 x="[null,true,false,1]" 3 print(eval(x)) #报错,无法解析null类型,而json就可以 4 print(json.loads(x))
什么是序列化?
我们把对象(变量)从内存中变成可存储或传输的过程称之为序列化,在Python中叫pickling,在其他语言中也被称之为serialization,marshalling,flattening等等,都是一个意思。
为什么要序列化?
1:持久保存状态
需知一个软件/程序的执行就在处理一系列状态的变化,在编程语言中,‘状态‘会以各种各样有结构的数据类型(也可简单的理解为变量)的形式被保存在内存中。
内存是无法永久保存数据的,当程序运行了一段时间,我们断电或者重启程序,内存中关于这个程序的之前一段时间的数据(有结构)都被清空了。
在断电或重启程序之前将程序当前内存中所有的数据都保存下来(保存到文件中),以便于下次程序执行能够从文件中载入之前的数据,然后继续执行,这就是序列化。
具体的来说,你玩使命召唤闯到了第13关,你保存游戏状态,关机走人,下次再玩,还能从上次的位置开始继续闯关。或如,虚拟机状态的挂起等。
2:跨平台数据交互
序列化之后,不仅可以把序列化后的内容写入磁盘,还可以通过网络传输到别的机器上,如果收发的双方约定好实用一种序列化的格式,那么便打破了平台/语言差异化带来的限制,实现了跨平台数据交互。
反过来,把变量内容从序列化的对象重新读到内存里称之为反序列化,即unpickling。
如何序列化之json和pickle:
如果我们要在不同的编程语言之间传递对象,就必须把对象序列化为标准格式,比如XML,但更好的方法是序列化为JSON,因为JSON表示出来就是一个字符串,可以被所有语言读取,也可以方便地存储到磁盘或者通过网络传输。JSON不仅是标准格式,并且比XML更快,而且可以直接在Web页面中读取,非常方便。
JSON表示的对象就是标准的JavaScript语言的对象,JSON和Python内置的数据类型对应如下:
1 import json 2 3 dic={‘name‘:‘alvin‘,‘age‘:23,‘sex‘:‘male‘} 4 print(type(dic))#<class ‘dict‘> 5 6 j=json.dumps(dic) 7 print(type(j))#<class ‘str‘> 8 9 10 f=open(‘序列化对象‘,‘w‘) 11 f.write(j) #-------------------等价于json.dump(dic,f) 12 f.close() 13 #-----------------------------反序列化<br> 14 import json 15 f=open(‘序列化对象‘) 16 data=json.loads(f.read())# 等价于data=json.load(f)
1 import json 2 #dct="{‘1‘:111}"#json 不认单引号 3 #dct=str({"1":111})#报错,因为生成的数据还是单引号:{‘one‘: 1} 4 5 dct=‘{"1":"111"}‘ 6 print(json.loads(dct)) 7 8 #conclusion: 9 # 无论数据是怎样创建的,只要满足json格式,就可以json.loads出来,不一定非要dumps的数据才能loads
1 import pickle 2 3 dic={‘name‘:‘alvin‘,‘age‘:23,‘sex‘:‘male‘} 4 5 print(type(dic))#<class ‘dict‘> 6 7 j=pickle.dumps(dic) 8 print(type(j))#<class ‘bytes‘> 9 10 11 f=open(‘序列化对象_pickle‘,‘wb‘)#注意是w是写入str,wb是写入bytes,j是‘bytes‘ 12 f.write(j) #-------------------等价于pickle.dump(dic,f) 13 14 f.close() 15 #-------------------------反序列化 16 import pickle 17 f=open(‘序列化对象_pickle‘,‘rb‘) 18 19 data=pickle.loads(f.read())# 等价于data=pickle.load(f) 20 21 22 print(data[‘age‘])
Pickle的问题和所有其他编程语言特有的序列化问题一样,就是它只能用于Python,并且可能不同版本的Python彼此都不兼容,因此,只能用Pickle保存那些不重要的数据,不能成功地反序列化也没关系。
shelve模块比pickle模块简单,只有一个open函数,返回类似字典的对象,可读可写;key必须为字符串,而值可以是python所支持的数据类型
import shelve f=shelve.open(r‘sheve.txt‘) # f[‘stu1_info‘]={‘name‘:‘egon‘,‘age‘:18,‘hobby‘:[‘piao‘,‘smoking‘,‘drinking‘]} # f[‘stu2_info‘]={‘name‘:‘gangdan‘,‘age‘:53} # f[‘school_info‘]={‘website‘:‘http://www.pypy.org‘,‘city‘:‘beijing‘} print(f[‘stu1_info‘][‘hobby‘]) f.close()
xml是实现不同语言或程序之间进行数据交换的协议,跟json差不多,但json使用起来更简单,不过,古时候,在json还没诞生的黑暗年代,大家只能选择用xml呀,至今很多传统公司如金融行业的很多系统的接口还主要是xml。
xml的格式如下,就是通过<>节点来区别数据结构的:
1 <?xml version="1.0"?> 2 <data> 3 <country name="Liechtenstein"> 4 <rank updated="yes">2</rank> 5 <year>2008</year> 6 <gdppc>141100</gdppc> 7 <neighbor name="Austria" direction="E"/> 8 <neighbor name="Switzerland" direction="W"/> 9 </country> 10 <country name="Singapore"> 11 <rank updated="yes">5</rank> 12 <year>2011</year> 13 <gdppc>59900</gdppc> 14 <neighbor name="Malaysia" direction="N"/> 15 </country> 16 <country name="Panama"> 17 <rank updated="yes">69</rank> 18 <year>2011</year> 19 <gdppc>13600</gdppc> 20 <neighbor name="Costa Rica" direction="W"/> 21 <neighbor name="Colombia" direction="E"/> 22 </country> 23 </data>
xml协议在各个语言里的都 是支持的,在python中可以用以下模块操作xml:
# print(root.iter(‘year‘)) #全文搜索 # print(root.find(‘country‘)) #在root的子节点找,只找一个 # print(root.findall(‘country‘)) #在root的子节点找,找所有
1 import xml.etree.ElementTree as ET 2 3 tree = ET.parse("xmltest.xml") 4 root = tree.getroot() 5 print(root.tag) 6 7 #遍历xml文档 8 for child in root: 9 print(‘========>‘,child.tag,child.attrib,child.attrib[‘name‘]) 10 for i in child: 11 print(i.tag,i.attrib,i.text) 12 13 #只遍历year 节点 14 for node in root.iter(‘year‘): 15 print(node.tag,node.text) 16 #--------------------------------------- 17 18 import xml.etree.ElementTree as ET 19 20 tree = ET.parse("xmltest.xml") 21 root = tree.getroot() 22 23 #修改 24 for node in root.iter(‘year‘): 25 new_year=int(node.text)+1 26 node.text=str(new_year) 27 node.set(‘updated‘,‘yes‘) 28 node.set(‘version‘,‘1.0‘) 29 tree.write(‘test.xml‘) 30 31 32 #删除node 33 for country in root.findall(‘country‘): 34 rank = int(country.find(‘rank‘).text) 35 if rank > 50: 36 root.remove(country) 37 38 tree.write(‘output.xml‘)
#在country内添加(append)节点year2 import xml.etree.ElementTree as ET tree = ET.parse("a.xml") root=tree.getroot() for country in root.findall(‘country‘): for year in country.findall(‘year‘): if int(year.text) > 2000: year2=ET.Element(‘year2‘) year2.text=‘新年‘ year2.attrib={‘update‘:‘yes‘} country.append(year2) #往country节点下添加子节点 tree.write(‘a.xml.swap‘)
自己创建xml文档:
1 import xml.etree.ElementTree as ET 2 3 4 new_xml = ET.Element("namelist") 5 name = ET.SubElement(new_xml,"name",attrib={"enrolled":"yes"}) 6 age = ET.SubElement(name,"age",attrib={"checked":"no"}) 7 sex = ET.SubElement(name,"sex") 8 sex.text = ‘33‘ 9 name2 = ET.SubElement(new_xml,"name",attrib={"enrolled":"no"}) 10 age = ET.SubElement(name2,"age") 11 age.text = ‘19‘ 12 13 et = ET.ElementTree(new_xml) #生成文档对象 14 et.write("test.xml", encoding="utf-8",xml_declaration=True) 15 16 ET.dump(new_xml) #打印生成的格式
配置文件如下:
# 注释1 ; 注释2 [section1] k1 = v1 k2:v2 user=egon age=18 is_admin=true salary=31
[section2] k1 = v1
读取
import configparser config=configparser.ConfigParser() config.read(‘a.cfg‘) #查看所有的标题 res=config.sections() #[‘section1‘, ‘section2‘] print(res) #查看标题section1下所有key=value的key options=config.options(‘section1‘) print(options) #[‘k1‘, ‘k2‘, ‘user‘, ‘age‘, ‘is_admin‘, ‘salary‘] #查看标题section1下所有key=value的(key,value)格式 item_list=config.items(‘section1‘) print(item_list) #[(‘k1‘, ‘v1‘), (‘k2‘, ‘v2‘), (‘user‘, ‘egon‘), (‘age‘, ‘18‘), (‘is_admin‘, ‘true‘), (‘salary‘, ‘31‘)] #查看标题section1下user的值=>字符串格式 val=config.get(‘section1‘,‘user‘) print(val) #egon #查看标题section1下age的值=>整数格式 val1=config.getint(‘section1‘,‘age‘) print(val1) #18 #查看标题section1下is_admin的值=>布尔值格式 val2=config.getboolean(‘section1‘,‘is_admin‘) print(val2) #True #查看标题section1下salary的值=>浮点型格式 val3=config.getfloat(‘section1‘,‘salary‘) print(val3) #31.0
改写
import configparser config=configparser.ConfigParser() config.read(‘a.cfg‘) #删除整个标题section2 config.remove_section(‘section2‘) #删除标题section1下的某个k1和k2 config.remove_option(‘section1‘,‘k1‘) config.remove_option(‘section1‘,‘k2‘) #判断是否存在某个标题 print(config.has_section(‘section1‘)) #判断标题section1下是否有user print(config.has_option(‘section1‘,‘‘)) #添加一个标题 config.add_section(‘egon‘) #在标题egon下添加name=egon,age=18的配置 config.set(‘egon‘,‘name‘,‘egon‘) config.set(‘egon‘,‘age‘,18) #报错,必须是字符串 #最后将修改的内容写入文件,完成最终的修改 config.write(open(‘a.cfg‘,‘w‘))
==============》更详细如下
好多软件的常见文档格式如下,文件名为test.ini:
1 [DEFAULT] 2 ServerAliveInterval = 45 3 Compression = yes 4 CompressionLevel = 9 5 ForwardX11 = yes 6 7 [bitbucket.org] 8 User = hg 9 10 [topsecret.server.com] 11 Port = 50022 12 ForwardX11 = no
1 [PHP] 2 engine = On 3 short_open_tag = Off 4 asp_tags = Off 5 precision = 14 6 output_buffering = 4096 7 zlib.output_compression = Off 8 implicit_flush = Off 9 unserialize_callback_func = 10 serialize_precision = 17 11 disable_functions = 12 disable_classes = 13 zend.enable_gc = On 14 expose_php = On 15 max_execution_time = 30 16 max_input_time = 60 17 memory_limit = 128M 18 error_reporting = E_ALL & ~E_DEPRECATED & ~E_STRICT 19 display_errors = Off 20 display_startup_errors = Off 21 log_errors = On 22 log_errors_max_len = 1024 23 ignore_repeated_errors = Off 24 ignore_repeated_source = Off 25 report_memleaks = On 26 track_errors = Off 27 html_errors = On 28 variables_order = "GPCS" 29 request_order = "GP" 30 register_argc_argv = Off 31 auto_globals_jit = On 32 post_max_size = 8M 33 auto_prepend_file = 34 auto_append_file = 35 default_mimetype = "text/html" 36 doc_root = 37 user_dir = 38 enable_dl = Off 39 file_uploads = On 40 upload_max_filesize = 2M 41 max_file_uploads = 20 42 allow_url_fopen = On 43 allow_url_include = Off 44 default_socket_timeout = 60 45 [CLI Server] 46 cli_server.color = On 47 [Date] 48 [filter] 49 [iconv] 50 [intl] 51 [sqlite] 52 [sqlite3] 53 [Pcre] 54 [Pdo] 55 [Pdo_mysql] 56 pdo_mysql.cache_size = 2000 57 pdo_mysql.default_socket= 58 [Phar] 59 [mail function] 60 SMTP = localhost 61 smtp_port = 25 62 sendmail_path = /usr/sbin/sendmail -t -i 63 mail.add_x_header = On 64 [SQL] 65 sql.safe_mode = Off 66 [ODBC] 67 odbc.allow_persistent = On 68 odbc.check_persistent = On 69 odbc.max_persistent = -1 70 odbc.max_links = -1 71 odbc.defaultlrl = 4096 72 odbc.defaultbinmode = 1 73 [Interbase] 74 ibase.allow_persistent = 1 75 ibase.max_persistent = -1 76 ibase.max_links = -1 77 ibase.timestampformat = "%Y-%m-%d %H:%M:%S" 78 ibase.dateformat = "%Y-%m-%d" 79 ibase.timeformat = "%H:%M:%S" 80 [MySQL] 81 mysql.allow_local_infile = On 82 mysql.allow_persistent = On 83 mysql.cache_size = 2000 84 mysql.max_persistent = -1 85 mysql.max_links = -1 86 mysql.default_port = 87 mysql.default_socket = 88 mysql.default_host = 89 mysql.default_user = 90 mysql.default_password = 91 mysql.connect_timeout = 60 92 mysql.trace_mode = Off 93 [MySQLi] 94 mysqli.max_persistent = -1 95 mysqli.allow_persistent = On 96 mysqli.max_links = -1 97 mysqli.cache_size = 2000 98 mysqli.default_port = 3306 99 mysqli.default_socket = 100 mysqli.default_host = 101 mysqli.default_user = 102 mysqli.default_pw = 103 mysqli.reconnect = Off 104 [mysqlnd] 105 mysqlnd.collect_statistics = On 106 mysqlnd.collect_memory_statistics = Off 107 [OCI8] 108 [PostgreSQL] 109 pgsql.allow_persistent = On 110 pgsql.auto_reset_persistent = Off 111 pgsql.max_persistent = -1 112 pgsql.max_links = -1 113 pgsql.ignore_notice = 0 114 pgsql.log_notice = 0 115 [Sybase-CT] 116 sybct.allow_persistent = On 117 sybct.max_persistent = -1 118 sybct.max_links = -1 119 sybct.min_server_severity = 10 120 sybct.min_client_severity = 10 121 [bcmath] 122 bcmath.scale = 0 123 [browscap] 124 [Session] 125 session.save_handler = files 126 session.use_cookies = 1 127 session.use_only_cookies = 1 128 session.name = PHPSESSID 129 session.auto_start = 0 130 session.cookie_lifetime = 0 131 session.cookie_path = / 132 session.cookie_domain = 133 session.cookie_httponly = 134 session.serialize_handler = php 135 session.gc_probability = 1 136 session.gc_divisor = 1000 137 session.gc_maxlifetime = 1440 138 session.bug_compat_42 = Off 139 session.bug_compat_warn = Off 140 session.referer_check = 141 session.cache_limiter = nocache 142 session.cache_expire = 180 143 session.use_trans_sid = 0 144 session.hash_function = 0 145 session.hash_bits_per_character = 5 146 url_rewriter.tags = "a=href,area=href,frame=src,input=src,form=fakeentry" 147 [MSSQL] 148 mssql.allow_persistent = On 149 mssql.max_persistent = -1 150 mssql.max_links = -1 151 mssql.min_error_severity = 10 152 mssql.min_message_severity = 10 153 mssql.compatability_mode = Off 154 mssql.secure_connection = Off 155 [Assertion] 156 [mbstring] 157 [gd] 158 [exif] 159 [Tidy] 160 tidy.clean_output = Off 161 [soap] 162 soap.wsdl_cache_enabled=1 163 soap.wsdl_cache_dir="/tmp" 164 soap.wsdl_cache_ttl=86400 165 soap.wsdl_cache_limit = 5 166 [sysvshm] 167 [ldap] 168 ldap.max_links = -1 169 [mcrypt] 170 [dba]
1 获取所有节点
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) res=config.sections() print(res) ‘‘‘ 打印结果: [‘bitbucket.org‘, ‘topsecret.server.com‘] ‘‘‘
2 获取指定节点下所有的键值对
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) res=config.items(‘bitbucket.org‘) print(res) ‘‘‘ 打印结果:(包含DEFAULT以及bitbucket.org这俩标题下所有的items) [(‘serveraliveinterval‘, ‘45‘), (‘compression‘, ‘yes‘), (‘compressionlevel‘, ‘9‘), (‘forwardx11‘, ‘yes‘), (‘user‘, ‘hg‘)] ‘‘‘
3 获取指定节点下所有的建
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) res=config.options(‘bitbucket.org‘) print(res) ‘‘‘ 打印结果:(包含DEFAULT以及bitbucket.org这俩标题下所有的键) [‘user‘, ‘serveraliveinterval‘, ‘compression‘, ‘compressionlevel‘, ‘forwardx11‘]‘‘‘
4 获取指定节点下指定key的值
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) res1=config.get(‘bitbucket.org‘,‘user‘) res2=config.getint(‘topsecret.server.com‘,‘port‘) res3=config.getfloat(‘topsecret.server.com‘,‘port‘) res4=config.getboolean(‘topsecret.server.com‘,‘ForwardX11‘) print(res1) print(res2) print(res3) print(res4) ‘‘‘ 打印结果: hg 50022 50022.0 False ‘‘‘
5 检查、删除、添加节点
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) #检查 has_sec=config.has_section(‘bitbucket.org‘) print(has_sec) #打印True #添加节点 config.add_section(‘egon‘) #已经存在则报错 config[‘egon‘][‘username‘]=‘gangdan‘ config[‘egon‘][‘age‘]=‘18‘ config.write(open(‘test.ini‘,‘w‘)) #删除节点 config.remove_section(‘egon‘) config.write(open(‘test.ini‘,‘w‘))
6 检查、删除、设置指定组内的键值对
import configparser config=configparser.ConfigParser() config.read(‘test.ini‘,encoding=‘utf-8‘) #检查 has_sec=config.has_option(‘bitbucket.org‘,‘user‘) #bitbucket.org下有一个键user print(has_sec) #打印True #删除 config.remove_option(‘DEFAULT‘,‘forwardx11‘) config.write(open(‘test.ini‘,‘w‘)) #设置 config.set(‘bitbucket.org‘,‘user‘,‘gangdang‘) config.write(open(‘test.ini‘,‘w‘))
1 import configparser 2 3 config = configparser.ConfigParser() 4 config["DEFAULT"] = {‘ServerAliveInterval‘: ‘45‘, 5 ‘Compression‘: ‘yes‘, 6 ‘CompressionLevel‘: ‘9‘} 7 8 config[‘bitbucket.org‘] = {} 9 config[‘bitbucket.org‘][‘User‘] = ‘hg‘ 10 config[‘topsecret.server.com‘] = {} 11 topsecret = config[‘topsecret.server.com‘] 12 topsecret[‘Host Port‘] = ‘50022‘ # mutates the parser 13 topsecret[‘ForwardX11‘] = ‘no‘ # same here 14 config[‘DEFAULT‘][‘ForwardX11‘] = ‘yes‘ 15 with open(‘example.ini‘, ‘w‘) as configfile: 16 config.write(configfile)
hash:一种算法 ,3.x里代替了md5模块和sha模块,主要提供 SHA1, SHA224, SHA256, SHA384, SHA512 ,MD5 算法
三个特点:
1.内容相同则hash运算结果相同,内容稍微改变则hash值则变
2.不可逆推
3.相同算法:无论校验多长的数据,得到的哈希值长度固定。
1 import hashlib 2 3 m=hashlib.md5()# m=hashlib.sha256() 4 5 m.update(‘hello‘.encode(‘utf8‘)) 6 print(m.hexdigest()) #5d41402abc4b2a76b9719d911017c592 7 8 m.update(‘alvin‘.encode(‘utf8‘)) 9 10 print(m.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af 11 12 m2=hashlib.md5() 13 m2.update(‘helloalvin‘.encode(‘utf8‘)) 14 print(m2.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af 15 16 ‘‘‘ 17 注意:把一段很长的数据update多次,与一次update这段长数据,得到的结果一样 18 但是update多次为校验大文件提供了可能。 19 ‘‘‘
以上加密算法虽然依然非常厉害,但时候存在缺陷,即:通过撞库可以反解。所以,有必要对加密算法中添加自定义key再来做加密。
1 import hashlib 2 3 # ######## 256 ######## 4 5 hash = hashlib.sha256(‘898oaFs09f‘.encode(‘utf8‘)) 6 hash.update(‘alvin‘.encode(‘utf8‘)) 7 print (hash.hexdigest())#e79e68f070cdedcfe63eaf1a2e92c83b4cfb1b5c6bc452d214c1b7e77cdfd1c7
1 import hashlib 2 passwds=[ 3 ‘alex3714‘, 4 ‘alex1313‘, 5 ‘alex94139413‘, 6 ‘alex123456‘, 7 ‘123456alex‘, 8 ‘a123lex‘, 9 ] 10 def make_passwd_dic(passwds): 11 dic={} 12 for passwd in passwds: 13 m=hashlib.md5() 14 m.update(passwd.encode(‘utf-8‘)) 15 dic[passwd]=m.hexdigest() 16 return dic 17 18 def break_code(cryptograph,passwd_dic): 19 for k,v in passwd_dic.items(): 20 if v == cryptograph: 21 print(‘密码是===>\033[46m%s\033[0m‘ %k) 22 23 cryptograph=‘aee949757a2e698417463d47acac93df‘ 24 break_code(cryptograph,make_passwd_dic(passwds))
python 还有一个 hmac 模块,它内部对我们创建 key 和 内容 进行进一步的处理然后再加密:
1 import hmac 2 h = hmac.new(‘alvin‘.encode(‘utf8‘)) 3 h.update(‘hello‘.encode(‘utf8‘)) 4 print (h.hexdigest())#320df9832eab4c038b6c1d7ed73a5940
1 import subprocess 2 3 ‘‘‘ 4 sh-3.2# ls /Users/egon/Desktop |grep txt$ 5 mysql.txt 6 tt.txt 7 事物.txt 8 ‘‘‘ 9 10 res1=subprocess.Popen(‘ls /Users/jieli/Desktop‘,shell=True,stdout=subprocess.PIPE) 11 res=subprocess.Popen(‘grep txt$‘,shell=True,stdin=res1.stdout, 12 stdout=subprocess.PIPE) 13 14 print(res.stdout.read().decode(‘utf-8‘)) 15 16 17 #等同于上面,但是上面的优势在于,一个数据流可以和另外一个数据流交互,可以通过爬虫得到结果然后交给grep 18 res1=subprocess.Popen(‘ls /Users/jieli/Desktop |grep txt$‘,shell=True,stdout=subprocess.PIPE) 19 print(res1.stdout.read().decode(‘utf-8‘)) 20 21 22 #windows下: 23 # dir | findstr ‘test*‘ 24 # dir | findstr ‘txt$‘ 25 import subprocess 26 res1=subprocess.Popen(r‘dir C:\Users\Administrator\PycharmProjects\test\函数备课‘,shell=True,stdout=subprocess.PIPE) 27 res=subprocess.Popen(‘findstr test*‘,shell=True,stdin=res1.stdout, 28 stdout=subprocess.PIPE) 29 30 print(res.stdout.read().decode(‘gbk‘)) #subprocess使用当前系统默认编码,得到结果为bytes类型,在windows下需要用gbk解码
用于便捷记录日志且线程安全的模块
import logging ‘‘‘ 一:如果不指定filename,则默认打印到终端 二:指定日志级别: 指定方式: 1:level=10 2:level=logging.ERROR 日志级别种类: CRITICAL = 50 FATAL = CRITICAL ERROR = 40 WARNING = 30 WARN = WARNING INFO = 20 DEBUG = 10 NOTSET = 0 三:指定日志级别为ERROR,则只有ERROR及其以上级别的日志会被打印 ‘‘‘ logging.basicConfig(filename=‘access.log‘, format=‘%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s‘, datefmt=‘%Y-%m-%d %H:%M:%S %p‘, level=10) logging.debug(‘debug‘) logging.info(‘info‘) logging.warning(‘warning‘) logging.error(‘error‘) logging.critical(‘critical‘) logging.log(10,‘log‘) #如果level=40,则只有logging.critical和loggin.error的日志会被打印
可在logging.basicConfig()函数中通过具体参数来更改logging模块默认行为,可用参数有
filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。
filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
format:指定handler使用的日志显示格式。
datefmt:指定日期时间格式。
level:设置rootlogger(后边会讲解具体概念)的日志级别
stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。点击查看更详细
%(name)s |
Logger的名字,并非用户名,详细查看 |
%(levelno)s |
数字形式的日志级别 |
%(levelname)s |
文本形式的日志级别 |
%(pathname)s |
调用日志输出函数的模块的完整路径名,可能没有 |
%(filename)s |
调用日志输出函数的模块的文件名 |
%(module)s |
调用日志输出函数的模块名 |
%(funcName)s |
调用日志输出函数的函数名 |
%(lineno)d |
调用日志输出函数的语句所在的代码行 |
%(created)f |
当前时间,用UNIX标准的表示时间的浮 点数表示 |
%(relativeCreated)d |
输出日志信息时的,自Logger创建以 来的毫秒数 |
%(asctime)s |
字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒 |
%(thread)d |
线程ID。可能没有 |
%(threadName)s |
线程名。可能没有 |
%(process)d |
进程ID。可能没有 |
%(message)s |
用户输出的消息 |
一:什么是正则?
正则就是用一些具有特殊含义的符号组合到一起(称为正则表达式)来描述字符或者字符串的方法。或者说:正则就是用来描述一类事物的规则。(在Python中)它内嵌在Python中,并通过 re 模块实现。正则表达式模式被编译成一系列的字节码,然后由用 C 编写的匹配引擎执行。
生活中处处都是正则:
比如我们描述:4条腿
你可能会想到的是四条腿的动物或者桌子,椅子等
继续描述:4条腿,活的
就只剩下四条腿的动物这一类了
二:常用匹配模式(元字符)
http://blog.csdn.net/yufenghyc/article/details/51078107
1 #一对一的匹配 2 # ‘hello‘.replace(old,new) 3 # ‘hello‘.find(‘pattern‘) 4 5 #正则匹配 6 import re 7 #\w与\W 8 print(re.findall(‘\w‘,‘hello egon 123‘)) #[‘h‘, ‘e‘, ‘l‘, ‘l‘, ‘o‘, ‘e‘, ‘g‘, ‘o‘, ‘n‘, ‘1‘, ‘2‘, ‘3‘] 9 print(re.findall(‘\W‘,‘hello egon 123‘)) #[‘ ‘, ‘ ‘] 10 11 #\s与\S 12 print(re.findall(‘\s‘,‘hello egon 123‘)) #[‘ ‘, ‘ ‘, ‘ ‘, ‘ ‘] 13 print(re.findall(‘\S‘,‘hello egon 123‘)) #[‘h‘, ‘e‘, ‘l‘, ‘l‘, ‘o‘, ‘e‘, ‘g‘, ‘o‘, ‘n‘, ‘1‘, ‘2‘, ‘3‘] 14 15 #\d与\D 16 print(re.findall(‘\d‘,‘hello egon 123‘)) #[‘1‘, ‘2‘, ‘3‘] 17 print(re.findall(‘\D‘,‘hello egon 123‘)) #[‘h‘, ‘e‘, ‘l‘, ‘l‘, ‘o‘, ‘ ‘, ‘e‘, ‘g‘, ‘o‘, ‘n‘, ‘ ‘] 18 19 #\A与\D 20 print(re.findall(‘\Ahe‘,‘hello egon 123‘)) #[‘he‘],\A==>^ 21 print(re.findall(‘123\Z‘,‘hello egon 123‘)) #[‘he‘],\Z==>$ 22 23 #\n与\t 24 print(re.findall(r‘\n‘,‘hello egon \n123‘)) #[‘\n‘] 25 print(re.findall(r‘\t‘,‘hello egon\t123‘)) #[‘\n‘] 26 27 #^与$ 28 print(re.findall(‘^h‘,‘hello egon 123‘)) #[‘h‘] 29 print(re.findall(‘3$‘,‘hello egon 123‘)) #[‘3‘] 30 31 # 重复匹配:| . | * | ? | .* | .*? | + | {n,m} | 32 #. 33 print(re.findall(‘a.b‘,‘a1b‘)) #[‘a1b‘] 34 print(re.findall(‘a.b‘,‘a\nb‘)) #[] 35 print(re.findall(‘a.b‘,‘a\nb‘,re.S)) #[‘a\nb‘] 36 print(re.findall(‘a.b‘,‘a\nb‘,re.DOTALL)) #[‘a\nb‘]同上一条意思一样 37 38 #* 39 print(re.findall(‘ab*‘,‘bbbbbbb‘)) #[] 40 print(re.findall(‘ab*‘,‘a‘)) #[‘a‘] 41 print(re.findall(‘ab*‘,‘abbbb‘)) #[‘abbbb‘] 42 43 #? 44 print(re.findall(‘ab?‘,‘a‘)) #[‘a‘] 45 print(re.findall(‘ab?‘,‘abbb‘)) #[‘ab‘] 46 #匹配所有包含小数在内的数字 47 print(re.findall(‘\d+\.?\d*‘,"asdfasdf123as1.13dfa12adsf1asdf3")) #[‘123‘, ‘1.13‘, ‘12‘, ‘1‘, ‘3‘] 48 49 #.*默认为贪婪匹配 50 print(re.findall(‘a.*b‘,‘a1b22222222b‘)) #[‘a1b22222222b‘] 51 52 #.*?为非贪婪匹配:推荐使用 53 print(re.findall(‘a.*?b‘,‘a1b22222222b‘)) #[‘a1b‘] 54 55 #+ 56 print(re.findall(‘ab+‘,‘a‘)) #[] 57 print(re.findall(‘ab+‘,‘abbb‘)) #[‘abbb‘] 58 59 #{n,m} 60 print(re.findall(‘ab{2}‘,‘abbb‘)) #[‘abb‘] 61 print(re.findall(‘ab{2,4}‘,‘abbb‘)) #[‘abb‘] 62 print(re.findall(‘ab{1,}‘,‘abbb‘)) #‘ab{1,}‘ ===> ‘ab+‘ 63 print(re.findall(‘ab{0,}‘,‘abbb‘)) #‘ab{0,}‘ ===> ‘ab*‘ 64 65 #[] 66 print(re.findall(‘a[1*-]b‘,‘a1b a*b a-b‘)) #[]内的都为普通字符了,且如果-没有被转意的话,应该放到[]的开头或结尾 67 print(re.findall(‘a[^1*-]b‘,‘a1b a*b a-b a=b‘)) #[]内的^代表的意思是取反,所以结果为[‘a=b‘] 68 print(re.findall(‘a[0-9]b‘,‘a1b a*b a-b a=b‘)) #[]内的^代表的意思是取反,所以结果为[‘a=b‘] 69 print(re.findall(‘a[a-z]b‘,‘a1b a*b a-b a=b aeb‘)) #[]内的^代表的意思是取反,所以结果为[‘a=b‘] 70 print(re.findall(‘a[a-zA-Z]b‘,‘a1b a*b a-b a=b aeb aEb‘)) #[]内的^代表的意思是取反,所以结果为[‘a=b‘] 71 72 #\# print(re.findall(‘a\\c‘,‘a\c‘)) #对于正则来说a\\c确实可以匹配到a\c,但是在python解释器读取a\\c时,会发生转义,然后交给re去执行,所以抛出异常 73 print(re.findall(r‘a\\c‘,‘a\c‘)) #r代表告诉解释器使用rawstring,即原生字符串,把我们正则内的所有符号都当普通字符处理,不要转义 74 print(re.findall(‘a\\\\c‘,‘a\c‘)) #同上面的意思一样,和上面的结果一样都是[‘a\\c‘] 75 76 #():分组 77 print(re.findall(‘ab+‘,‘ababab123‘)) #[‘ab‘, ‘ab‘, ‘ab‘] 78 print(re.findall(‘(ab)+123‘,‘ababab123‘)) #[‘ab‘],匹配到末尾的ab123中的ab 79 print(re.findall(‘(?:ab)+123‘,‘ababab123‘)) #findall的结果不是匹配的全部内容,而是组内的内容,?:可以让结果为匹配的全部内容 80 81 #| 82 print(re.findall(‘compan(?:y|ies)‘,‘Too many companies have gone bankrupt, and the next one is my company‘))
1 import re 2 #1 3 print(re.findall(‘e‘,‘alex make love‘) ) #[‘e‘, ‘e‘, ‘e‘],返回所有满足匹配条件的结果,放在列表里 4 #2 5 print(re.search(‘e‘,‘alex make love‘).group()) #e,只到找到第一个匹配然后返回一个包含匹配信息的对象,该对象可以通过调用group()方法得到匹配的字符串,如果字符串没有匹配,则返回None。 6 7 #3 8 print(re.match(‘e‘,‘alex make love‘)) #None,同search,不过在字符串开始处进行匹配,完全可以用search+^代替match 9 10 #4 11 print(re.split(‘[ab]‘,‘abcd‘)) #[‘‘, ‘‘, ‘cd‘],先按‘a‘分割得到‘‘和‘bcd‘,再对‘‘和‘bcd‘分别按‘b‘分割 12 13 #5 14 print(‘===>‘,re.sub(‘a‘,‘A‘,‘alex make love‘)) #===> Alex mAke love,不指定n,默认替换所有 15 print(‘===>‘,re.sub(‘a‘,‘A‘,‘alex make love‘,1)) #===> Alex make love 16 print(‘===>‘,re.sub(‘a‘,‘A‘,‘alex make love‘,2)) #===> Alex mAke love 17 print(‘===>‘,re.sub(‘^(\w+)(.*?\s)(\w+)(.*?\s)(\w+)(.*?)$‘,r‘\5\2\3\4\1‘,‘alex make love‘)) #===> love make alex 18 19 print(‘===>‘,re.subn(‘a‘,‘A‘,‘alex make love‘)) #===> (‘Alex mAke love‘, 2),结果带有总共替换的个数 20 21 22 #6 23 obj=re.compile(‘\d{2}‘) 24 25 print(obj.search(‘abc123eeee‘).group()) #12 26 print(obj.findall(‘abc123eeee‘)) #[‘12‘],重用了obj
1 import re 2 print(re.findall("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>")) #[‘h1‘] 3 print(re.search("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>").group()) #<h1>hello</h1> 4 print(re.search("<(?P<tag_name>\w+)>\w+</(?P=tag_name)>","<h1>hello</h1>").groupdict()) #<h1>hello</h1> 5 6 print(re.search(r"<(\w+)>\w+</(\w+)>","<h1>hello</h1>").group()) 7 print(re.search(r"<(\w+)>\w+</\1>","<h1>hello</h1>").group())
1 import re 2 3 print(re.findall(r‘-?\d+\.?\d*‘,"1-12*(60+(-40.35/5)-(-4*3))")) #找出所有数字[‘1‘, ‘-12‘, ‘60‘, ‘-40.35‘, ‘5‘, ‘-4‘, ‘3‘] 4 5 6 #使用|,先匹配的先生效,|左边是匹配小数,而findall最终结果是查看分组,所有即使匹配成功小数也不会存入结果 7 #而不是小数时,就去匹配(-?\d+),匹配到的自然就是,非小数的数,在此处即整数 8 print(re.findall(r"-?\d+\.\d*|(-?\d+)","1-2*(60+(-40.35/5)-(-4*3))")) #找出所有整数[‘1‘, ‘-2‘, ‘60‘, ‘‘, ‘5‘, ‘-4‘, ‘3‘]
#_*_coding:utf-8_*_ #在线调试工具:tool.oschina.net/regex/ import re s=‘‘‘ http://www.baidu.com egon@oldboyedu.com 你好 010-3141 ‘‘‘ #最常规匹配 # content=‘Hello 123 456 World_This is a Regex Demo‘ # res=re.match(‘Hello\s\d\d\d\s\d{3}\s\w{10}.*Demo‘,content) # print(res) # print(res.group()) # print(res.span()) #泛匹配 # content=‘Hello 123 456 World_This is a Regex Demo‘ # res=re.match(‘^Hello.*Demo‘,content) # print(res.group()) #匹配目标,获得指定数据 # content=‘Hello 123 456 World_This is a Regex Demo‘ # res=re.match(‘^Hello\s(\d+)\s(\d+)\s.*Demo‘,content) # print(res.group()) #取所有匹配的内容 # print(res.group(1)) #取匹配的第一个括号内的内容 # print(res.group(2)) #去陪陪的第二个括号内的内容 #贪婪匹配:.*代表匹配尽可能多的字符 # import re # content=‘Hello 123 456 World_This is a Regex Demo‘ # # res=re.match(‘^He.*(\d+).*Demo$‘,content) # print(res.group(1)) #只打印6,因为.*会尽可能多的匹配,然后后面跟至少一个数字 #非贪婪匹配:?匹配尽可能少的字符 # import re # content=‘Hello 123 456 World_This is a Regex Demo‘ # # res=re.match(‘^He.*?(\d+).*Demo$‘,content) # print(res.group(1)) #只打印6,因为.*会尽可能多的匹配,然后后面跟至少一个数字 #匹配模式:.不能匹配换行符 content=‘‘‘Hello 123456 World_This is a Regex Demo ‘‘‘ # res=re.match(‘He.*?(\d+).*?Demo$‘,content) # print(res) #输出None # res=re.match(‘He.*?(\d+).*?Demo$‘,content,re.S) #re.S让.可以匹配换行符 # print(res) # print(res.group(1)) #转义: # content=‘price is $5.00‘ # res=re.match(‘price is $5.00‘,content) # print(res) # # res=re.match(‘price is \$5\.00‘,content) # print(res) #总结:尽量精简,详细的如下 # 尽量使用泛匹配模式.* # 尽量使用非贪婪模式:.*? # 使用括号得到匹配目标:用group(n)去取得结果 # 有换行符就用re.S:修改模式 #re.search:会扫描整个字符串,不会从头开始,找到第一个匹配的结果就会返回 # import re # content=‘Extra strings Hello 123 456 World_This is a Regex Demo Extra strings‘ # # res=re.match(‘Hello.*?(\d+).*?Demo‘,content) # print(res) #输出结果为None # # import re # content=‘Extra strings Hello 123 456 World_This is a Regex Demo Extra strings‘ # # res=re.search(‘Hello.*?(\d+).*?Demo‘,content) # # print(res.group(1)) #输出结果为 #re.search:只要一个结果,匹配演练, import re content=‘‘‘ <tbody> <tr id="4766303201494371851675" class="even "><td><div class="hd"><span class="num">1</span><div class="rk "><span class="u-icn u-icn-75"></span></div></div></td><td class="rank"><div class="f-cb"><div class="tt"><a href="/song?id=476630320"><img class="rpic" src="http://p1.music.126.net/Wl7T1LBRhZFg0O26nnR2iQ==/19217264230385030.jpg?param=50y50&quality=100"></a><span data-res-id="476630320" " # res=re.search(‘<a\shref=.*?<b\stitle="(.*?)".*?b>‘,content) # print(res.group(1)) #re.findall:找到符合条件的所有结果 # res=re.findall(‘<a\shref=.*?<b\stitle="(.*?)".*?b>‘,content) # for i in res: # print(i) #re.sub:字符串替换 import re content=‘Extra strings Hello 123 456 World_This is a Regex Demo Extra strings‘ # content=re.sub(‘\d+‘,‘‘,content) # print(content) #用\1取得第一个括号的内容 #用法:将123与456换位置 # import re # content=‘Extra strings Hello 123 456 World_This is a Regex Demo Extra strings‘ # # # content=re.sub(‘(Extra.*?)(\d+)(\s)(\d+)(.*?strings)‘,r‘\1\4\3\2\5‘,content) # content=re.sub(‘(\d+)(\s)(\d+)‘,r‘\3\2\1‘,content) # print(content) # import re # content=‘Extra strings Hello 123 456 World_This is a Regex Demo Extra strings‘ # # res=re.search(‘Extra.*?(\d+).*strings‘,content) # print(res.group(1)) # import requests,re # respone=requests.get(‘https://book.douban.com/‘).text # print(respone) # print(‘======‘*1000) # print(‘======‘*1000) # print(‘======‘*1000) # print(‘======‘*1000) # res=re.findall(‘<li.*?cover.*?href="(.*?)".*?title="(.*?)">.*?more-meta.*?author">(.*?)</span.*?year">(.*?)</span.*?publisher">(.*?)</span.*?</li>‘,respone,re.S) # # res=re.findall(‘<li.*?cover.*?href="(.*?)".*?more-meta.*?author">(.*?)</span.*?year">(.*?)</span.*?publisher">(.*?)</span>.*?</li>‘,respone,re.S) # # # for i in res: # print(‘%s %s %s %s‘ %(i[0].strip(),i[1].strip(),i[2].strip(),i[3].strip()))
标签:抛出异常 3.2 添加 工作 basename format getc makedirs 2.0
原文地址:http://www.cnblogs.com/Vae1242/p/6950854.html