标签:jason elf 设置 直接 计算 模块 死锁 代码块 running
并发:看上去像是同时运行
并行:真正意义上的同时运行
程序:一坨代码
进程:正在运行的代码
# 方式一
from multiprocessing import Process
import time
def test(name):
print('%s is running' % name)
time.sleep(3)
print('%s is over' % name)
'''
windows 创建进程会将代码以模块的方式从上往下执行一遍
linux则会直接将代码完完整整的拷贝一份
Windows创建进程一定要在if __name__ == '__main__':代码块内创建 否则报错 无限循环
'''
if __name__ == '__main__':
# args应该接收一个元组,只有一个元素时,必须加逗号
p = Process(target=test, args=('egon',)) # 创建一个进程对象
p.start() # 告诉操作系统帮你创建一个进程
print('主')
'''
创建进程就是在内存中重新开辟一块内存空间
将允许产生的代码丢进去
一个进程对应在内存就是一块独立的内存空间
进程与进程之间数据时隔离的,无法直接交互
但是可以通过某些技术实现间接交互
'''
# 方式二
from multiprocessing import Process
import time
class MyProcess(Process):
def __init__(self, name):
super().__init__()
self.name = name
def run(self):
print('%s is running' % self.name)
time.sleep(3)
print('%s is over' % self.name)
if __name__ == '__main__':
p = MyProcess('egon')
p.start()
print('主')
1、空间上的复用
多个程序共用一套计算机硬件
2、时间上的复用(切换+保存状态)
1、三种状态
2、三状态转换
3、同步异步
4、阻塞非阻塞
from multiprocessing import Process
import time
money = 100
def test():
global money
money = 99999999
if __name__ == '__main__':
p = Process(target=test)
p.start()
p.join()
print(money)
from multiprocessing import Process
import time
def test(name,i):
print('%s is running'%name)
time.sleep(i)
print('%s is over'%name)
if __name__ == '__main__':
p_list = []
# for i in range(3):
# p = Process(target=test,args=('进程%s'%i,i))
# p.start()
# p_list.append(p)
# for p in p_list:
# p.join()
p = Process(target=test,args=('egon',1))
p1 = Process(target=test,args=('kevin',2))
p2 = Process(target=test,args=('jason',3))
start_time = time.time()
p.start() # 仅仅是告诉操作系统帮你创建一个进程 至于这个进程什么时候创 操作系统随机决定
p1.start()
p2.start()
p2.join()
p.join()
p1.join()
# 主进程代码等待子进程运行结束 才继续运行
# p.join() # 主进程代码等待子进程运行结束
print('主')
print(time.time() - start_time)
? 默认情况下是主进程在运行完之后等待所有子进程运行结束之后结束,由于进程间的运行是互不干扰的,所以在没有join方法时,主进程的运行会出现两种效果,一种是等待,即主进程已经运行完毕,但是子进程还未运行完毕,主进程会等待子进程运行结束;第二种是不等待,即子进程在主进程运行结束之前就结束了。而join方法的作用是,当主进程运行到join方法时,会在这一行停下来,等待子进程运行完毕,然后才会继续运行后面的代码。所以在主进程运行到join方法时也会出现两种状态,一种是等待,即在主进程运行到join方法前子进程并未运行完毕;另一种是不等待,即子进程在主进程运行到join方法前就已经结束了。
from multiprocessing import Process,current_process
import os
import time
def test(name):
# print('%s is running'%name,current_process().pid)
print('%s is running'%name,'子进程%s'%os.getpid(),'父进程%s'%os.getppid())
time.sleep(3)
print('%s is over'%name)
if __name__ == '__main__':
p = Process(target=test,args=('egon',))
p.start()
p.terminate() # 杀死当前进程 其实是告诉操作系统帮你杀死一个进程
time.sleep(0.1)
print(p.is_alive()) # 判断进程是否存活
# print('主',current_process().pid)
print('主',os.getpid(),'主主进程:%s'%os.getppid())
? 由于python程序不能直接控制进程,只能是通知操作系统如何如何操作,所以p.terminate()的效果不是立刻杀死进程,所以立刻检测进程的状态就会出现该进程依然存活的消息。
from multiprocessing import Process
import time
def test(name):
print('%s总管正常活着'%name)
time.sleep(3)
print('%s总管正常死亡'%name)
if __name__ == '__main__':
p = Process(target=test,args=('egon',))
p.daemon = True # 将该进程设置为守护进程 这一句话必须放在start语句之前 否则报错
p.start()
time.sleep(0.1)
print('皇帝jason寿正终寝')
当多个进程操作同一份数据的时候,会造成数据的错乱,这个时候必须加锁处理
加锁:将并发变成串行,虽然降低了效率,但是提高了数据的安全
注意:
? 1、锁不要轻易使用,容易造成死锁现象
? 2、只在处理数据的部分加锁,不要再全局加锁
? 3、锁必须在主进程中产生,交给子进程去使用
from multiprocessing import Process,Lock
import time
import json
# 查票
def search(i):
with open('data','r',encoding='utf-8') as f:
data = f.read()
t_d = json.loads(data)
print('用户%s查询余票为:%s'%(i,t_d.get('ticket')))
# 买票
def buy(i):
with open('data','r',encoding='utf-8') as f:
data = f.read()
t_d = json.loads(data)
time.sleep(1)
if t_d.get('ticket') > 0:
# 票数减一
t_d['ticket'] -= 1
# 更新票数
with open('data','w',encoding='utf-8') as f:
json.dump(t_d,f)
print('用户%s抢票成功'%i)
else:
print('没票了')
def run(i,mutex):
search(i)
mutex.acquire() # 抢锁 只要有人抢到了锁 其他人必须等待该人释放锁
buy(i)
mutex.release() # 释放锁
if __name__ == '__main__':
mutex = Lock() # 生成了一把锁
for i in range(10):
p = Process(target=run,args=(i,mutex))
p.start()
僵尸进程:子进程的资源(进程号等)未被回收的情况
孤儿进程:子进程没死,父进程意外死亡
标签:jason elf 设置 直接 计算 模块 死锁 代码块 running
原文地址:https://www.cnblogs.com/DcentMan/p/11380549.html