标签:可靠传输 sele 调整 思考 idt 初始 不用 链接 多线程
一个 http 请求的整个流程
那么在分布式架构中,有一个很重要的环节,就是分布式网络中的计算机节点彼此之间需要通信。这个通信的过程一定会涉及到通信协议相关的知识点,当然大家也可能知道一些,但是我会尽可能的把通信这一块的内容串起来,加深大家的理解。我们每天都在用浏览器访问各种网站,作为用户来说,只需要需要输入一个网址并且正确跳转就行。但是作为程序员,看到的可能就是这个响应背后的整体流程。所以我想通过一个 http请求的整个流程来进行讲解通信的知识
负责域名解析的 DNS 服务
首先,用户访问一个域名,会经过 DNS 解析DNS(Domain Name System),它和 HTTP 协议一样是位于应用层的协议,主要提供域名到IP 的解析服务。我们其实不用域名也可以访问目标主机的服务,但是 IP 本身不是那么容易记,所以使用域名进行替换使得用户更容易记住。
加速静态内容访问速度的 CDN
我这里只讲了比较简单的解析流程,在很多大型网站,会引入 CDN 来加速静态内容的访问,这里简单给大家解释一下什么是 CDN(Content Delivery Network),表示的是内容分发网络。CDN 其实就是一种网络缓存技术,能够把一些相对稳定的资源放到距离最终用户较近的地方,一方面可以节省整个广域网的带宽消耗,另外一方面可以提升用户的访问速度,改进用户体验。我们一般会把静态的文件(图片、脚本、静态页面)放到 CDN 中。如果引入了 CDN,那么解析的流程可能会稍微复杂一点,大家有空自己去了解一下。比如阿里云就提供了 cdn 的功能。
HTTP 协议通信原理
域名被成功解析以后,客户端和服务端之间,是怎么建立连接并且如何通信的呢?说到通信,大家一定听过 tcp 和 udp 这两种通信协议,以及建立连接的握手过程。而 http 协
议的通信是基于 tcp/ip 协议之上的一个应用层协议,应用层协议除了 http 还有哪些呢(FTP、DNS、SMTP、Telnet 等)。
涉及到网络协议,我们一定需要知道 OSI 七层网络模型和 TCP/IP 四层概念模型,OSI 七层网络模型包含(应用层、表示层、会话层、传输层、网络层、数据链路层、物理层)、TCP/IP 四层概念模型包含(应用层、传输层、网络层、数据链路层)。
请求发起过程,在 tcp/ip 四层网络模型中所做的事情
当应用程序用 T C P 传送数据时,数据被送入协议栈中,然后逐个通过每一层直到被当作一串比特流送入网络。其中每一层对收到的数据都要增加一些首部信息(有时还要增加尾部信息)
客户端如何找到目标服务
在客户端发起请求的时候,我们会在数据链路层去组装目标机器的 MAC 地址,目标机器的mac 地址怎么得到呢? 这里就涉及到一个 ARP 协议,这个协议简单来说就是已知目标机器的 ip,需要获得目标机器的 mac 地址。(发送一个广播消息,这个 ip 是谁的,请来认领。认领 ip 的机器会发送一个 mac 地址的响应)有了这个目标 MAC 地址,数据包在链路上广播,MAC 的网卡才能发现,这个包是给它的。MAC 的网卡把包收进来,然后打开 IP 包,发现 IP 地址也是自己的,再打开 TCP 包,发现端口是自己,也就是 80 端口,而这个时候这台机器上有一个 nginx 是监听 80 端口。于是将请求提交给 nginx,nginx 返回一个网页。然后将网页需要发回请求的机器。然后层层封装,最后到 MAC 层因为来的时候有源 MAC 地址,返回的时候,源 MAC 就变成了目标 MAC,再返给请求的机器。
为了避免每次都用 ARP 请求,机器本地也会进行 ARP 缓存。当然机器会不断地上线下线,IP 也可能会变,所以 ARP 的 MAC 地址缓存过一段时间就会过期。
接收端收到数据包以后的处理过程
当目的主机收到一个以太网数据帧时,数据就开始从协议栈中由底向上升,同时去掉各层协议加上的报文首部。每层协议都要去检查报文首部中的协议标识,以确定接收数据的上层协议。
为什么有了 MAC 层还要走 IP 层呢?
之前我们提到,mac 地址是唯一的,那理论上,在任何两个设备之间,我应该都可以通过mac 地址发送数据,为什么还需要 ip 地址?
mac 地址就好像个人的身份证号,人的身份证号和人户口所在的城市,出生的日期有关,但是和人所在的位置没有关系,人是会移动的,知道一个人的身份证号,并不能找到它这个人,mac 地址类似,它是和设备的生产者,批次,日期之类的关联起来,知道一个设备的mac,并不能在网络中将数据发送给它,除非它和发送方的在同一个网络内。
所以要实现机器之间的通信,我们还需要有 ip 地址的概念,ip 地址表达的是当前机器在网络中的位置,类似于城市名+道路号+门牌号的概念。通过 ip 层的寻址,我们能知道按何种路径在全世界任意两台 Internet 上的的机器间传输数据。
TCP/IP 的分层管理
TCP/IP 协议按照层次分为 4 层:应用层、传输层、网络层、数据链路层。对于分层这个概念,大家一定不陌生,比如我们的分布式架构体系中会分为业务层、服务层、基础支撑层。比如docker,也是基于分层来实现。所以我们会发现,复杂的程序都需要分层,这个是软件设计的要求,每一层专注于当前领域的事情。如果某些地方需要修改,我们只需要把变动的层替换掉就行,一方面改动影响较少,另一方面整个架构的灵活性也更高。 最后,在分层之后,整个架构的设计也变得相对简单了。
分层负载
了解了分层的概念以后,我们再去理解所谓的二层负载、三层负载、四层负载、七层负载就容易多了。
一次 http 请求过来,一定会从应用层到传输层,完成整个交互。只要是在网络上跑的数据包,都是完整的。可以有下层没上层,绝对不可能有上层没下层。
二层负载
二层负载是针对 MAC,负载均衡服务器对外依然提供一个 VIP(虚 IP),集群中不同的机器采用相同 IP 地址,但是机器的 MAC 地址不一样。当负载均衡服务器接受到请求之后,通过改写报文的目标 MAC 地址的方式将请求转发到目标机器实现负载均衡。二层负载均衡会通过一个虚拟 MAC 地址接收请求,然后再分配到真实的 MAC 地址
三层负载均衡
三层负载是针对 IP,和二层负载均衡类似,负载均衡服务器对外依然提供一个 VIP(虚 IP),但是集群中不同的机器采用不同的 IP 地址。当负载均衡服务器接受到请求之后,根据不同的负载均衡算法,通过 IP 将请求转发至不同的真实服务器,三层负载均衡会通过一个虚拟 IP 地址接收请求,然后再分配到真实的 IP 地址
四层负载均衡
四层负载均衡工作在 OSI 模型的传输层,由于在传输层,只有 TCP/UDP 协议,这两种协议中除了包含源 IP、目标 IP 以外,还包含源端口号及目的端口号。四层负载均衡服务器在接受到客户端请求后,以后通过修改数据包的地址信息(IP+端口号)将流量转发到应用服务器。
四层通过虚拟 IP + 端口接收请求,然后再分配到真实的服务器
七层负载均衡
七层负载均衡工作在 OSI 模型的应用层,应用层协议较多,常用 http、radius、dns 等。七层负载就可以基于这些协议来负载。这些应用层协议中会包含很多有意义的内容。比如同一个Web 服务器的负载均衡,除了根据 IP 加端口进行负载外,还可根据七层的 URL、浏览器类别来决定是否要进行负载均衡
七层通过虚拟的 URL 或主机名接收请求,然后再分配到真实的服务器。
TCP/IP 协议的深入分析
通过前面一个案例的分析,基本清楚了网络的通信流程,在 http 协议中,底层用到了 tcp 的通信协议,我们接下来给大家简单介绍一下 tcp 的通信协议原理。
我们如果需要深入学习网络协议,就要先把一些基本的协议的作用和工作过程搞清楚,网络设备还没智能到人脑的程度,它是由人类创造出来的,它的工作过程肯定是符合人类的交流习惯并按照人类的交流习惯来设计的。所以要以人类的思维方式去理解这些协议。例如,你给别人打电话,不可能电话一接通你就啪啦啪啦地说一大通,万一对方接通电话后
因为有事还没来得及倾听呢?这不太符合正常人类的交流习惯。一般是电话接通后,双方会有个交互的过程,会先说一声“你好”,然后对方也回复一声“你好”,双方通过各自一句“你好”明确对方的注意力都放在了电话沟通上,然后你们双方就可以开始交流了,这才是正常的人类交流方式,这个过程体现在计算机网络里就是网络协议!我们通过 TCP 协议在两台电脑建立网络连接之前要先发数据包进行沟通,沟通后再建立连接,然后才是信息的传输。而 UDP协议就类似于我们的校园广播,广播内容已经通过广播站播放出去了,你能不能听到,那就与广播站无关了,正常情况下,不可能你说没注意听然后再让广播站再播放一次广播内容。基于这些思路,我们先去了解下 TCP 里面关注比较多的握手协议
TCP 握手协议
所以 TCP 消息的可靠性首先来自于有效的连接建立,所以在数据进行传输前,需要通过三次握手建立一个连接,所谓的三次握手,就是在建立 TCP 链接时,需要客户端和服务端总共发送 3 个包来确认连接的建立,在 socket 编程中,这个过程由客户端执行 connect 来触发。
|
第 一 次 握 手 (SYN=1, seq=x) 客 户 端 发 送 一 个 TCP 的 SYN 标志 位置 1 的包, 指明客 户端打算连接的服 务器的端口,以及 初始序号 X, 保存 在 包 头 的 序 列 号 (Sequence Number)字段里。 发送完毕后,客户 端 进 入 SYN_SEND 状态。
第 二 次 握 手(SYN=1, ACK=1, seq=y, ACKnum=x+1): 服务器发回确认包 (ACK) 应 答 。 即 SYN 标志位和 ACK 标 志 位 均 为 1。 服务器端选择自 己 ISN 序列号, 放 到 Seq 域里,同时 将 确 认 序 号 (Acknowledgeme nt Number)设置为 客户的 ISN 加 1, 即 X+1。 发送完毕后,服务 器 端 进 入 SYN_RCVD 状态。
第 三 次 握 手 (ACK=1 , ACKnum=y+1) 客户端再次发送确 认包(ACK), SYN 标 志位为 0,ACK 标 志位为 1, 并且把服 务器发来 ACK 的 序号字段+1,放在 确定字段中发送给 对方, 并且在数据 段放写 ISN 发完毕 后 , 客 户 端 进 入 ESTABLISHED 状 态,当服务器端接收到这个包时, 也 进 入 ESTABLISHED 状 态,TCP 握手结束。
|
|
|
那 TCP 在三次握手的时候,IP 层和 MAC 层在做什么呢?当然是 TCP 发送每一个消息,都会带着 IP 层和 MAC 层了。因为,TCP 每发送一个消息,IP 层和 MAC 层的所有机制都要运行一遍。而你只看到 TCP 三次握手了,其实,IP 层和 MAC 层为此也忙活好久了。
SYN 攻击
在三次握手过程中,Server 发送 SYN-ACK 之后,收到 Client 的 ACK 之前的 TCP 连接称为半连接(half-open connect),此时 Server 处于 SYN_RCVD 状态,当收到 ACK 后,Server转入 ESTABLISHED 状态。SYN 攻击就是 Client 在短时间内伪造大量不存在的 IP 地址,并向Server 不断地发送 SYN 包,Server 回复确认包,并等待 Client 的确认,由于源地址是不存在的,因此,Server 需要不断重发直至超时,这些伪造的 SYN 包将产时间占用未连接队列,导致正常的 SYN 请求因为队列满而被丢弃,从而引起网络堵塞甚至系统瘫痪。SYN 攻击时一种典型的 DDOS 攻击,检测 SYN 攻击的方式非常简单,即当 Server 上有大量半连接状态且源 IP 地址是随机的,则可以断定遭到 SYN 攻击了
TCP 四次挥手协议
四次挥手表示 TCP 断开连接的时候,需要客户端和服务端总共发送 4 个包以确认连接的断开;客户端或服务器均可主动发起挥手动作(因为 TCP 是一个全双工协议),在 socket 编程中,任何一方执行 close() 操作即可产生挥手操作。
|
单工:数据传输只支持数据在一个方 向上传输
半双工:数据传输允许数据在两个方 向上传输,但是在某一时刻,只允许 在一个方向上传输,实际上有点像切 换方向的单工通信
全双工:数据通信允许数据同时在两 个方向上传输,因此全双工是两个单 工通信方式的结合,它要求发送设备 和接收设备都有独立的接收和发送 能力
|
第一次挥手(FIN=1,seq=x)
假设客户端想要关闭连接,客户端发送一个 FIN 标志位置为 1 的包,表示自己已经没有数据可以发送了,但是仍然可以接受数据。发送完毕后,客户端进入 FIN_WAIT_1 状态。
第二次挥手(ACK=1,ACKnum=x+1)
服务器端确认客户端的 FIN 包,发送一个确认包,表明自己接受到了客户端关闭连接的请求,但还没有准备好关闭连接。发送完毕后,服务器端进入 CLOSE_WAIT 状态,客户端接收到这个确认包之后,进入 FIN_WAIT_2 状态,等待服务器端关闭连接。
第三次挥手(FIN=1,seq=w)
服务器端准备好关闭连接时,向客户端发送结束连接请求,FIN 置为 1。发送完毕后,服务器端进入 LAST_ACK 状态,等待来自客户端的最后一个 ACK。
第四次挥手(ACK=1,ACKnum=w+1)
客户端接收到来自服务器端的关闭请求,发送一个确认包,并进入 TIME_WAIT 状态,等待可能出现的要求重传的 ACK 包。服务器端接收到这个确认包之后,关闭连接,进入 CLOSED 状态。
客户端等待了某个固定时间(两个最大段生命周期,2MSL,2 Maximum Segment Lifetime)之后,没有收到服务器端的 ACK,认为服务器端已经正常关闭连接,于是自己也关闭连接,进入 CLOSED 状态。
假设 Client 端发起中断连接请求,也就是发送 FIN 报文。Server 端接到 FIN 报文后,意思是说"我 Client 端没有数据要发给你了",但是如果你还有数据没有发送完成,则不必急着关闭Socket,可以继续发送数据。所以你先发送 ACK,"告诉 Client 端,你的请求我收到了,但是我还没准备好,请继续你等我的消息"。这个时候 Client 端就进入 FIN_WAIT 状态,继续等待Server 端的 FIN 报文。当 Server 端确定数据已发送完成,则向 Client 端发送 FIN 报文,"告诉 Client 端,好了,我这边数据发完了,准备好关闭连接了"。Client 端收到 FIN 报文后,"就知道可以关闭连接了,但是他还是不相信网络,怕 Server 端不知道要关闭,所以发送 ACK 后进入 TIME_WAIT 状态,如果 Server 端没有收到 ACK 则可以重传。“,Server 端收到 ACK 后,"就知道可以断开连接了"。Client 端等待了 2MSL 后依然没有收到回复,则证明 Server 端已
正常关闭,那好,我 Client 端也可以关闭连接了。Ok,TCP 连接就这样关闭了!
问题
【问题 1】为什么连接的时候是三次握手,关闭的时候却是四次握手?
答:三次握手是因为因为当 Server 端收到 Client 端的 SYN 连接请求报文后,可以直接发送SYN+ACK 报文。其中 ACK 报文是用来应答的,SYN 报文是用来同步的。但是关闭连接时,当 Server 端收到 FIN 报文时,很可能并不会立即关闭 SOCKET(因为可能还有消息没处理完),所以只能先回复一个 ACK 报文,告诉 Client 端,"你发的 FIN 报文我收到了"。只有等到我 Server 端所有的报文都发送完了,我才能发送 FIN 报文,因此不能一起发送。故需要四步握手。
【问题 2】为什么 TIME_WAIT 状态需要经过 2MSL(最大报文段生存时间)才能返回到 CLOSE状态?
答:虽然按道理,四个报文都发送完毕,我们可以直接进入 CLOSE 状态了,但是我们必须假象网络是不可靠的,有可以最后一个 ACK 丢失。所以 TIME_WAIT 状态就是用来重发可能丢失的 ACK 报文。
使用协议进行通信
tcp 连接建立以后,就可以基于这个连接通道来发送和接受消息了,TCP、UDP 都是在基于Socket 概念上为某类应用场景而扩展出的传输协议,那么什么是 socket 呢?socket 是一种抽象层,应用程序通过它来发送和接收数据,就像应用程序打开一个文件句柄,把数据读写到磁盘上一样。使用 socket 可以把应用程序添加到网络中,并与处于同一个网络中的其他应用程序进行通信。不同类型的 Socket 与不同类型的底层协议簇有关联。主要的 socket 类型为流套接字(stream socket)和数据报文套接字(datagram socket)。 stream socket 把 TCP作为端对端协议(底层使用 IP 协议),提供一个可信赖的字节流服务。数据报文套接字(datagram socket)使用 UDP 协议(底层同样使用 IP 协议)提供了一种“尽力而为”的数据报文服务。
接下来,我们使用 Java 提供的 API 来展示 TCP 协议的客户端和服务端通信的案例和 UDP协议的客户端和服务端通信的案例,然后更进一步了解底层的原理
基于 TCP 协议实现通信
实现一个简单的从客户端发送一个消息到服务端的功能
public static void main(String[] args) throws IOException { ServerSocket serverSocket=null; BufferedReader in=null; try{ TCP 的服务端要先监听一个端口,一般是先调用 bind 函数, 给这个 Socket 赋予一个 IP 地址和端 口。 为什么需要端口呢?要知道,你写的是一个应用 程序,当一个网络包来的时候,内核要通过 TCP 头里 面的这个端口, 来找到你这个应用程序,把包给你。 为什么要 IP 地址呢? 有时候,一台机器会有多个网 卡,也就会有多个 IP 地址, 你可以选择监听所有的 网卡,也可以选择监听一个网卡 这样,只有发给这 个网卡的包,才会给你。 serverSocket=new ServerSocket(8080); //阻塞等待客户端连接 接下来,服务端调用 accept 函数 //拿出一个已经完 成的连接进行处理。如果还没有完成,就要等着。 Socket socket=serverSocket.accept(); //连接建立成功之后,双方开始通过 read 和 write 函数来读写数据, //就像往一个文件流里面写东西一 样。 in=new BufferedReader( new InputStreamReader( socket.getInputStream ())); System.out.println(in.readLine()); }catch (Exception e){ e.printStackTrace(); }finally { if(in!=null){ try { in.close(); } catch (IOException e) { e.printStackTrace(); } } if(serverSocket!=null){ serverSocket.close(); } } }
|
public static void main(String[] args) { Socket socket=null; PrintWriter out=null; try { socket=new Socket("127.0.0.1",8080); out=new PrintWriter( socket.getOutputStream(),tr ue); out.println("Hello, Mic"); } catch (IOException e) { e.printStackTrace(); }finally { if(out!=null){ out.close(); } if(socket!=null){ try { socket.close(); } catch (IOException e) { e.printStackTrace(); } } }
|
基于 TCP 实现双向通信对话功能
TCP 是一个全双工协议,数据通信允许数据同时在两个方向上传输,因此全双工是两个单工通信方式的结合,它要求发送设备和接收设备都有独立的接收和发送能力。 我们来做一个简单的实现
Server 端
static ExecutorService executorService=Executors.newFixedThreadPool(1000);
public static void main(String[] args) {
ServerSocket serverSocket=null;
try {
//服务端一定需要去监听一个端口号,ip默认就是本机的ip地址
//ip:port
serverSocket=new ServerSocket(8080);
while(true) {
//阻塞(连接阻塞)
Socket socket = serverSocket.accept(); //接收客户端的连接(阻塞)
executorService.execute(new SocketThread(socket));
}
/*//拿到输入流(阻塞, read/write阻塞)
BufferedReader in=new BufferedReader(new InputStreamReader
(socket.getInputStream()));
//输出流
PrintWriter printWriter=new PrintWriter(socket.getOutputStream());
//通过控制台拿到数据
BufferedReader sin=new BufferedReader(new InputStreamReader(System.in));
System.out.println("Client:"+in.readLine()); //获得输入流的信息
String line=sin.readLine(); //获得控制台输入的数据
while(!line.equals("bye")){
printWriter.println(line); //写回到客户端
printWriter.flush();
System.out.println("client:"+in.readLine()); //读取客户端传过来的数据
line=sin.readLine(); //重新读取控制台的数据
}
System.out.println(in.readLine()); //获得客户端的输入信息*/
} catch (IOException e) {
e.printStackTrace();
}
}
Client 端
public static void main(String[] args) {
try {
//找到目标的ip和端口
Socket socket=new Socket("localhost",8080);
//在当前链接上写入输入
PrintWriter out=new PrintWriter(socket.getOutputStream(),true);
//控制台的输入流
BufferedReader sin=new BufferedReader(new InputStreamReader(System.in));
//拿到输入流
BufferedReader in=new BufferedReader(new InputStreamReader
(socket.getInputStream()));
String readline=sin.readLine(); //获得控制台的输入
while(!readline.equals("bye")){
out.println(readline);
System.out.println("Server:"+in.readLine());
readline=sin.readLine(); //重新获取
}
} catch (IOException e) {
e.printStackTrace();
}
}
总结
我们通过一个图来简单描述一下 socket 链接建立以及通信的模型
理解 TCP 的通信原理及 IO 阻塞
通过上面这个简单的案例,基本清楚了在 Java 应用程序中如何使用 socket 套接字来建立一个基于 tcp 协议的通信流程。接下来,我们在来了解一下 tcp 的底层通信过程是什么样的
了解 TCP 协议的通信过程
首先,对于 TCP 通信来说,每个 TCP Socket 的内核中都有一个发送缓冲区和一个接收缓冲区,TCP 的全双工的工作模式及 TCP 的滑动窗口就是依赖于这两个独立的 Buffer 和该 Buffer的填充状态。接收缓冲区把数据缓存到内核,若应用进程一直没有调用 Socket 的 read 方法进行读取,那么该数据会一直被缓存在接收缓冲区内。不管进程是否读取 Socket,对端发来的数据都会经过内核接收并缓存到 Socket 的内核接收缓冲区。
read 所要做的工作,就是把内核接收缓冲区中的数据复制到应用层用户的 Buffer 里。进程调用 Socket 的 send 发送数据的时候,一般情况下是将数据从应用层用户的 Buffer 里复制到 Socket 的内核发送缓冲区,然后 send 就会在上层返回。换句话说,send 返回时,数据不一定会被发送到对端。
前面我们提到,Socket 的接收缓冲区被 TCP 用来缓存网络上收到的数据,一直保存到应用进程读走为止。如果应用进程一直没有读取,那么 Buffer 满了以后,出现的情况是:通知对端TCP 协议中的窗口关闭,保证 TCP 接收缓冲区不会移除,保证了 TCP 是可靠传输的。如果对方无视窗口大小发出了超过窗口大小的数据,那么接收方会把这些数据丢弃。
滑动窗口协议
这个过程中涉及到了 TCP 的滑动窗口协议,滑动窗口(Sliding window)是一种流量控制技术。早期的网络通信中,通信双方不会考虑网络的拥挤情况直接发送数据。由于大家不知道网络拥塞状况,同时发送数据,导致中间节点阻塞掉包,谁也发不了数据,所以就有了滑动窗口机制来解决此问题;发送和接受方都会维护一个数据帧的序列,这个序列被称作窗口
发送窗口
就是发送端允许连续发送的幀的序号表。发送端可以不等待应答而连续发送的最大幀数称为发送窗口的尺寸。
接收窗口
接收方允许接收的幀的序号表,凡落在 接收窗口内的幀,接收方都必须处理,落在接收窗口外的幀被丢弃。接收方每次允许接收的幀数称为接收窗口的尺寸。
在线滑动窗口演示功能
https://media.pearsoncmg.com/aw/ecs_kurose_compnetwork_7/cw/content/interactiveanimations/selective-repeat-protocol/index.html
理解阻塞到底是什么回事
了解了基本通信原理以后,我们再来思考一个问题,在前面的代码演示中,我们通过socket.accept 去接收一个客户端请求,accept 是一个阻塞的方法,意味着 TCP 服务器一次只能处理一个客户端请求,当一个客户端向一个已经被其他客户端占用的服务器发送连接请求时,虽然在连接建立后可以向服务端发送数据,但是在服务端处理完之前的请求之前,却不会对新的客户端做出响应,这种类型的服务器称为“迭代服务器”。迭代服务器是按照顺序处理客户端请求,也就是服务端必须要处理完前一个请求才能对下一个客户端的请求进行响应。但是在实际应用中,我们不能接收这样的处理方式。所以我们需要一种方法可以独立处理每一个连接,并且他们之间不会相互干扰。而 Java 提供的多线程技术刚好满足这个需求,这个机制使得服务器能够方便处理多个客户端的请求。
一个客户端对应一个线程
为每个客户端创建一个线程实际上会存在一些弊端,因为创建一个线程需要占用 CPU 的资源和内存资源。另外,随着线程数增加,系统资源将会成为瓶颈最终达到一个不可控的状态,所以我们还可以通过线程池来实现多个客户端请求的功能,因为线程池是可控的。
非阻塞模型
上面这种模型虽然优化了 IO 的处理方式,但是,不管是线程池还是单个线程,线程本身的处理个数是有限制的,对于操作系统来说,如果线程数太多会造成 CPU 上下文切换的开销。因此这种方式不能解决根本问题所以在 Java1.4 以后,引入了 NIO(New IO)的功能,我不希望直接来给大家解释 NIO 的原理,我还是会基于 BIO 到 NIO 的过程来带着大家思考
阻塞 IO
前面其实已经简单讲过了阻塞 IO 的原理,我想在这里重申一下什么是阻塞 IO 呢? 就是当客户端的数据从网卡缓冲区复制到内核缓冲区之前,服务端会一直阻塞。以socket接口为例,进程空间中调用 recvfrom,进程从调用 recvfrom 开始到它返回的整段时间内都是被阻塞的,因此被成为阻塞 IO 模型
非阻塞 IO
那大家思考一个问题,如果我们希望这台服务器能够处理更多的连接,怎么去优化呢?
我们第一时间想到的应该是如何保证这个阻塞变成非阻塞吧。所以就引入了非阻塞 IO 模型,非阻塞 IO 模型的原理很简单,就是进程空间调用 recvfrom,如果这个时候内核缓冲区没有数据的话,就直接返回一个 EWOULDBLOCK 错误,然后应用程序通过不断轮询来检查这个状态状态,看内核是不是有数据过 来。
I/O 复用模型
我们前面讲的非阻塞仍然需要进程不断的轮询重试。能不能实现当数据可读了以后给程序一个通知呢?所以这里引入了一个 IO 多路复用模型,I/O 多路复用的本质是通过一种机制(系统内核缓冲 I/O 数据),让单个进程可以监视多个文件描述符,一旦某个描述符就绪(一般是读就绪或写就绪),能够通知程序进行相应的读写操作
【什么是 fd:在 linux 中,内核把所有的外部设备都当成是一个文件来操作,对一个文件的读写会调用内核提供的系统命令,返回一个 fd(文件描述符)。而对于一个 socket 的读写也会有相应的文件描述符,成为 socketfd】
常见的 IO 多路复用方式有【select、poll、epoll】,都是 Linux API 提供的 IO 复用方式,那么接下来重点讲一下 select、和 epoll 这两个模型
select:
进程可以通过把一个或者多个 fd 传递给 select 系统调用,进程会阻塞在 select 操作上,这样 select 可以帮我们检测多个 fd 是否处于就绪状态。这个模式有二个缺点
1. 由于他能够同时监听多个文件描述符,假如说有 1000 个,这个时候如果其中一个 fd 处于就绪状态了,那么当前进程需要线性轮询所有的 fd,也就是监听的 fd 越多,性能开销越大。
2. 同时,select 在单个进程中能打开的 fd 是有限制的,默认是 1024,对于那些需要支持单机上万的 TCP 连接来说确实有点少
epoll:
linux 还提供了 epoll 的系统调用,epoll 是基于事件驱动方式来代替顺序扫描,因此性能相对来说更高,主要原理是,当被监听的 fd 中,有 fd 就绪时,会告知当前进程具体哪一个 fd 就绪,那么当前进程只需要去从指定的 fd 上读取数据即可另外,epoll 所能支持的 fd 上线是操作系统的最大文件句柄,这个数字要远远大于 1024
【由于 epoll 能够通过事件告知应用进程哪个 fd 是可读的,所以我们也称这种 IO 为异步非阻塞 IO,当然它是伪异步的,因为它还需要去把数据从内核同步复制到用户空间中,真正的异步非阻塞,应该是数据已经完全准备好了,我只需要从用户空间读就行】
多路复用的好处
I/O 多路复用可以通过把多个 I/O 的阻塞复用到同一个 select 的阻塞上,从而使得系统在单线程的情况下可以同时处理多个客户端请求。它的最大优势是系统开销小,并且不需要创建新的进程或者线程,降低了系统的资源开销
关于异步 IO 这块,我就不在这里展开了。后续在 netty 中还会讲到 IO 的内容
一台机器理论能支持的连接数
这里再补充一点小知识,理论上一台机器能够支撑多少个连接,有没有同学知道?首先,在确定最大连接数之前,大家先跟我来先了解一下系统如何标识一个 tcp 连接。系统用 一 个 四 元 组 来 唯 一 标 识 一 个 TCP 连接: (source_ip, source_port, destination_ip,destination_port)。即(源 IP,源端口,目的 IP,目的端口)四个元素的组合。只要四个元素的组合中有一个元素不一样,那就可以区别不同的连接,
比如:你的 IP 地址是 11.1.2.3, 在 8080 端口监听,那么当一个来自 22.4.5.6 ,端口为 5555 的连接到达后,那么建立的这条连接的四元组为 :(11.1.2.3, 8080, 22.4.5.6, 5555)这时,假设上面的那个客户(22.4.5.6)发来第二条连接请求,端口为 6666,那么,新连接的四元组为(11.1.2.3, 8080, 22.4.5.6, 5555)
那么,你主机的 8080 端口建立了两条连接;
通常来说,服务端是固定一个监听端口,比如 8080,等待客户端的连接请求。在不考虑地址重用的情况下,及时 server 端有多个 ip,但是本地监听的端口是独立的。所以对于 tcp 连接的4元组中,如果destination_ip和destination_port不变。那么只有source_ip和source_port是可变的,因此最大的 tcp 连接数应该为 客户端的 ip 数 乘以 客户端的端口数。在 IPV4 中,不考虑 ip 分类等因素,最大的 ip 数为 2 的 32 次方 ;客户端最大的端口数为 2 的 16 次方,也就是 65536. 也就是服务端单机最大的 tcp 连接数约为 2 的 48 次方。
当然,这只是一个理论值,以 linux 服务器为例,实际的连接数还取决于
1. 内存大小(因为每个 TCP 连接都要占用一定的内存)、
2. 文件句柄限制,每一个 tcp 连接都需要占一个文件描述符,一旦这个文件描述符使用完了,新来的连接会返回一个“Can’t open so many files”的异常。如果大家知道对于操作系统最大可以打开的文件数限制,就知道怎么去调整这个限制
a) 可以执行【ulimit -n】得到当前一个进程最大能打开 1024 个文件,所以你要采用此默认配置最多也就可以并发上千个 TCP 连接。
b) 可以通过【vim /etc/security/limits.conf】去修改系统最大文件打开数的限制
* soft nofile 2048
* hard nofile 2048
* 表示修改所有用户限制、soft/hard 表示软限制还是硬限制,2048 表示修改以后的值
c) 可以通过【cat /proc/sys/fs/file-max】查看 linux 系统级最大打开文件数限制,表示当前这个服务器最多能同时打开多少个文件当然,这块还有其他很多的优化的点,这里不是这节课的目标
3. 带宽资源的限制
2.远程通信协议
标签:可靠传输 sele 调整 思考 idt 初始 不用 链接 多线程
原文地址:https://www.cnblogs.com/qlsem/p/11518731.html