标签:
注意:数据在计算机内部的复制是按照总线的宽度来复制的。比如在32位的操作系统中,数据每次都复制32位。
总线就像是一条32/64车道的马路,数据在计算机中是以0/1的形式存储,每次复制每条车道只能走一个0/1,因此每次只能同时复制32个0/1.
网络传输介质有光缆和铜缆,在光缆中电信号的传输速度为2.3x10^8m/s,在铜缆中传输速度为2.0x10^8m/s。
光的传播速度为3.0x10^8m/s,但由于光缆采用反射机制传播,并不是直射,因此电信号实际走的路程要比直线长很多,因此在光缆中的传播速度只有2.0x10^8m/s。
带宽的定义:数据的发送速率。
100Mbps = 100M bit per second
平时所说的100M带宽指的是100M比特每秒,
100Mbps = 12.5MBps
注意:我们平时所说的“100M”指的是100MB,而带宽的单位是Mb,而1MB = 8Mb。因此,运营商所说的“百兆宽带”其实是“12.5兆宽带”,呵呵。
我们的服务器会通过一个交换机连入互联网,互联网由无数个路由器和主机构成,路由器负责数据包的存储转发,将数据包根据目的地址途径一个个路由器,最终投递到目的主机中。
由于一个交换机往往有多个服务器接入,服务器们都会将需要发送的数据首先发给交换机,再由交换机发给路由器,这些数据先存储在路由器的缓存中,然后路由器根据先后顺序逐个转发。所以,如果服务器发送数据的速度过快,路由器缓存满了,那接下来的数据就会丢失,因此需要限制服务器向路由器发送数据的速度,即限制服务器的带宽。而这个限制由接入服务器的交换机完成。通过上文可知,交换机只要控制接收速度,就能限制服务器的发送速度。
1.独享带宽
如果一个路由器的出口带宽为100Mbps,并且同一个广播域内有10台主机,交换机只要将每台主机的最大出口带宽限制为10Mbps,那么不管在任何情况下每台主机的最大出口带宽为10Mbps。这就是独享带宽。独享带宽不会受到同一个广播域内其他主机的影响,任何时候最大出口带宽均为10Mbps。
2.共享带宽
假设一个路由器的出口带宽仍为100Mbps,但运营商为了挣更多钱,使同一个广播域内有多于10个主机接入,那么每台主机的平均最大带宽就小于10Mbps,此时即使交换机仍然将每台主机的最大出口带宽限制为10Mbps,但当主机都有较大的网络通信时,就无法保证每台主机都有10Mbps的最大带宽,此时就会相互竞争带宽。
综上所述,独享10M带宽能保证服务器的最大出口带宽在任何情况下都为10Mbps,不会受到同一广播域内的其他主机影响;而共享10M带宽只能保证在同一广播域内的其他主机通信空闲时,才能达到最大10Mbps的出口带宽。
响应时间是指从数据包的第一个0/1离开服务器开始,到最后一个0/1被客户端接收为止的这段时间。
响应时间 = 发送时间+传输时间+处理时间
响应时间=(数据包比特数/带宽)+(传输距离/传输速度)+处理时间
下载速度=数据的字节数/响应时间
吞吐率:服务器单位时间内处理请求的个数。
单位:reqs/s
吞吐率用来衡量服务器处理请求的能力。
当请求非常少的时候吞吐率并不高,因为此时服务器的性能还没有体现出来。那么随着请求的不断增多,吞吐率会随之上升,但当并发请求数上升到某一个临界点时,吞吐率不升反降。那个临界点就是服务器吞吐率的最大值,也叫最大吞吐率。
若我们的网站有促销活动前,可以通过上述方法来估计服务器的最大吞吐率,从而能判断服务器能否顶住促销带来的压力。
要搞清楚并发数和并发用户数的区别,首先需要了解HTTP协议。
HTTP协议是一种应用层协议,它本身是无连接的,也就是客户端与服务器每完成一次数据交互就需要断开连接,下次通信时重新建立连接。但是HTTP1.1中有一个keep-alive字段,它使得通信双方在完成一次通信后仍然保持一定时长的连接。若该时间内客户端又想与服务器通信,那么无需再创建新的连接,只需重用刚才的连接即可,这样能提高通信的效率,减少额外的开销。
注意:现在的浏览器支持多线程,可以同时与服务器建立多个TCP连接,因此一个用户可能会导致多个并发用户数。所以“并发用户数”和“用户数”不能完全画等号,这点需要注意!
平均请求等待时间:用户从点击一个按钮,到新的页面加载完毕所需的时间。
服务器平均请求处理时间:服务器从等待队列中取出一个请求开始,到处理完该请求所需的时间。
综上所述:平均请求处理时间是站在用户角度,是用来衡量用户体验的好坏的指标。
而服务器平均请求处理时间是衡量服务器性能好坏的指标,其实就是吞吐率的倒数。
注意:平均请求等待时间 和 服务器平均请求处理时间不成正比关系!
平均请求等待时间=请求传输时间+请求等待时间+请求处理时间
服务器平均请求处理时间=请求处理时间
由此可知,在请求数很少的情况下,浏览器发来的请求无需等待,直接被服务器处理,那么请求等待时间和服务器请求处理时间成正比关系;但在请求异常多的时候,请求到来速度远远大于服务器处理请求的速度,那么很多请求将会在等待队列中挤压,此时即使服务器处理请求的能力很强(即服务器平均请求处理时间很短),但用户的等待时间依然很长,此时用户等待时间与服务器请求处理时间不成正比。
我们使用Apache服务器的Apache Bench(简称ab)对网站进行压力测试。ab简单易用,关键可以直接在服务器本地发起测试,这样我们可以获取不包括传输时间的服务器处理时间。通过服务器处理时间就可以知道服务器的性能。
ab -n100 -c10 http://www.acmcoder.com/index.php
Server Software: openresty #服务器软件
Server Hostname: www.acmcoder.com #测试的网址
Server Port: 80 #访问的端口号
Document Path: /index.php #测试的网页
Document Length: 162 bytes #HTTP响应信息的正文长度
Concurrency Level: 10 #并发用户数
Time taken for tests: 1.497209 seconds #测试所花费的时间
Complete requests: 100 #总请求数
Failed requests: 0 #失败的请求数(响应码非2xx的请求由Non-2xx responses记录)
Write errors: 0
Non-2xx responses: 100 #HTTP响应头中状态码非2xx的响应个数
Total transferred: 32400 bytes #总的响应数据长度,包括HTTP响应的头和正文数据,但不包括请求数据。
HTML transferred: 16200 bytes #HTTP响应中正文数据的长度。
Requests per second: 66.79 [#/sec] (mean) #吞吐率
Time per request: 149.721 [ms] (mean) #用户平均请求等待时间
Time per request: 14.972 [ms] (mean, across all concurrent requests) #服务器平均请求处理时间
Transfer rate: 20.71 [Kbytes/sec] received #服务器的数据传输速度(在极限情况下该数据即为服务器出口带宽)
Connection Times (ms)
min mean[+/-sd] median max
Connect: 40 46 4.8 46 58
Processing: 41 46 5.0 46 58
Waiting: 40 46 4.9 45 58
Total: 81 92 9.7 92 116
Percentage of the requests served within a certain time (ms)
50% 92 #50%的请求在92毫秒内完成
66% 98
75% 99
80% 101
90% 107
95% 114
98% 115
99% 116
100% 116 (longest request)
一个网站的URL可能有很多,每个URL对应的处理也不尽相同,某一个URL的测试结果并不具有代表性。因此,我们需要选择一系列有代表性的URL,将测试结果的加权平均数作为网站的综合性能。
标签:
原文地址:http://blog.csdn.net/u010425776/article/details/51087515