标签:就会 lock 需要 data info png select epo ali
对于一个network IO (这里我们以read举例),它会涉及到两个系统对象,一个是调用这个IO的process (or thread),另一个就是系统内核(kernel)。当一个read操作发生时,该操作会经历两个阶段:
1)等待数据准备 (Waiting for the data to be ready)
2)将数据从内核拷贝到进程中(Copying the data from the kernel to the process)
O模型的区别就是在两个阶段上各有不同的情况
blocking IO的特点就是在IO执行的两个阶段(等待数据和拷贝数据两个阶段)都被block了。
#这种程序虽说解决了单线程并发,但是大大的占用了cpu from socket import * import time severt = socket(AF_INET,SOCK_STREAM) severt.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) severt.bind((‘127.0.0.1‘,8080)) severt.listen(5) severt.setblocking(False) #默认是True (如果是False,套接字里的一些阻塞操作都变成非阻塞的) print(‘startting....‘) conn_l = [] del_l =[] while True: try: print(conn_l) conn,addr = severt.accept() #收不到数据的时候才出异常 print(conn) conn_l.append(conn) except BlockingIOError: #吧收不到数据的那段时间利用起来(利用他收不到 #数据的时候,才干下面的for循环) for conn in conn_l: try: data = conn.recv(1024) conn.send(data.upper()) except BlockingIOError: pass except ConnectionResetError: #端开链接的错误(如果突然断开链接,会报错 #就先添加到列表里面去,完了吧链接给清除了) del_l.append(conn) for obj in del_l: obj.close() conn_l.remove(obj) del_l.clear()
在非阻塞式IO中,用户进程其实是需要不断的主动询问kernel数据准备好了没有。
但是非阻塞IO模型绝不被推荐。
我们不能否则其优点:能够在等待任务完成的时间里干其他活了(包括提交其他任务,也就是 “后台” 可以有多个任务在“”同时“”执行)。
但是也难掩其缺点:
#1. 循环调用recv()将大幅度推高CPU占用率;这也是我们在代码中留一句time.sleep(2)的原因,否则在低配主机下极容易出现卡机情况 #2. 任务完成的响应延迟增大了,因为每过一段时间才去轮询一次read操作,而任务可能在两次轮询之间的任意时间完成。这会导致整体数据吞吐量的降低。
当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。
这个图和blocking IO的图其实并没有太大的不同,事实上还更差一些。因为这里需要使用两个系统调用(select和recvfrom),而blocking IO只调用了一个系统调用(recvfrom)。但是,用select的优势在于它可以同时处理多个connection。
强调:
1. 如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。
2. 在多路复用模型中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。
结论: select的优势在于可以处理多个连接,不适用于单个连接
import select # 模块 import socket # 用来操作操作系统中的select(IO多路复用)机制 sk = socket.socket() sk.bind((‘127.0.0.1‘,9000)) sk.setblocking(False) sk.listen() r_lst = [sk,] print(sk) while True: r_l,_,_ = select.select(r_lst,[],[]) # r_lst = [sk,conn1,conn2,conn3] for item in r_l: if item is sk: conn, addr = sk.accept() r_lst.append(conn) else: try: print(item.recv(1024)) item.send(b‘hello‘) except ConnectionResetError: item.close() r_lst.remove(item)
select监听fd变化的过程分析:
select监听fd变化的过程分析:
#用户进程创建socket对象,拷贝监听的fd到内核空间,每一个fd会对应一张系统文件表,内核空间的fd响应到数据后,就会发送信号给用户进程数据已到; #用户进程再发送系统调用,比如(accept)将内核空间的数据copy到用户空间,同时作为接受数据端内核空间的数据清除,这样重新监听时fd再有新的数据又可以响应到了(发送端因为基于TCP协议所以需要收到应答后才会清除)。
该模型的优点:
#相比其他模型,使用select() 的事件驱动模型只用单线程(进程)执行,占用资源少,不消耗太多 CPU,同时能够为多客户端提供服务。如果试图建立一个简单的事件驱动的服务器程序,这个模型有一定的参考价值。
该模型的缺点:
#首先select()接口并不是实现“事件驱动”的最好选择。因为当需要探测的句柄值较大时,select()接口本身需要消耗大量时间去轮询各个句柄。
#很多操作系统提供了更为高效的接口,如linux提供了epoll,BSD提供了kqueue,Solaris提供了/dev/poll,…。
#如果需要实现更高效的服务器程序,类似epoll这样的接口更被推荐。遗憾的是不同的操作系统特供的epoll接口有很大差异,
#所以使用类似于epoll的接口实现具有较好跨平台能力的服务器会比较困难。 #其次,该模型将事件探测和事件响应夹杂在一起,一旦事件响应的执行体庞大,则对整个模型是灾难性的
标签:就会 lock 需要 data info png select epo ali
原文地址:https://www.cnblogs.com/yidashi110/p/9715429.html