码迷,mamicode.com
首页 > 其他好文 > 详细

nginx

时间:2017-09-22 00:40:35      阅读:159      评论:0      收藏:0      [点我收藏+]

标签:webserver   细节   决定   简单   poll   告诉   其他   多进程   秘密   

并发数=进程数?

进程数与并发数不存在很直接的关系(比如通过异步非阻塞io就可以实现单线程处理多请求)。这取决取server采用的工作方式。

进程数越多,server效率越高?

如果一个server采用一个进程负责一个request的方式,那么进程数就是并发数。那么显而易见的,就是会有很多进程在等待中。等什么?最多的应该是等待网络传输(比如等待客户端请求数据的到来,等待应用服务器的响应)。

而nginx的异步非阻塞工作方式正是利用了这点等待时间。在需要等待的时候,这些进程就空闲出来待命(可以在本该等待的时候去做其他事,这是由异步非阻塞决定的,非阻塞决定了不会等待io的完成,异步决定了io任务完成后会有相应的通知,如果只是非阻塞的话,要想得知io是否完成,就需要不断主动询问),因此表现为少数几个进程就解决了大量的并发问题。

阻塞io是如何做的呢,简单来说:同样的4个进程,如果采用一个进程负责一个request的方式,那么,同时进来4个request之后,每个进程就负责其中一个,直至会话关闭。期间,如果有第5个request进来了。就无法及时反应了,因为4个进程都没干完活呢,因此,一般有个调度进程,每当新进来了一个request,就新开个进程来处理。

nginx不这样,每进来一个request,会有一个worker进程去处理(worker数固定,不会随着请求数的增长而增长)。但不是全程的处理,处理到什么程度呢?处理到可能发生阻塞的地方,比如向上游(后端)服务器转发request,并等待请求返回。那么,这个处理的worker不会这么傻等着,他会在发送完请求后,注册一个事件:“如果upstream返回了,告诉我一声,我再接着干”。于是他就休息去了。此时,如果再有request 进来,他就可以很快再按这种方式处理。而一旦上游服务器返回了,就会触发这个事件,worker才会来接手,这个request才会接着往下走。

由于webserver(apache、tomcat都属于应用服务器)的工作性质决定了每个request的大部份生命都是在网络io中(webserver属于网络io密集型应用,不算是计算密集型),实际上花费在server机器上的时间片不多。这是几个进程就解决高并发的秘密所在。

综上,异步、非阻塞、使用epoll,和大量细节处的优化,决定了nginx的高并发性

 

参考:https://www.zhihu.com/question/22062795

nginx

标签:webserver   细节   决定   简单   poll   告诉   其他   多进程   秘密   

原文地址:http://www.cnblogs.com/holoyong/p/7572070.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!