“Do not communicate by sharing memory;instead, share memory by communicating.”
假设 G2
需要很长时间的处理,在此期间,G1
不断的发送任务:
ch <- task1
ch <- task2
ch <- task3
但是当再一次 ch <- task4
的时候,由于 ch
的缓冲只有 3
个,所以没有地方放了,于是 G1
被 block 了,当有人从队列中取走一个 Task 的时候,G1
才会被恢复。这是我们都知道的,不过我们今天关心的不是发生了什么,而是如何做到的?
首先,goroutine 不是操作系统线程,而是用户空间线程。因此 goroutine 是由 Go runtime 来创建并管理的,而不是 OS,所以要比操作系统线程轻量级。
当然,goroutine 最终还是要运行于某个线程中的,控制 goroutine 如何运行于线程中的是 Go runtime 中的 scheduler (调度器)。
Go 的运行时调度器是 M:N
调度模型,既 N
个 goroutine,会运行于 M
个 OS 线程中。换句话说,一个 OS 线程中,可能会运行多个 goroutine。
Go 的 M:N
调度中使用了3个结构:
M
: OS 线程G
: goroutineP
: 调度上下文P
拥有一个运行队列,里面是所有可以运行的 goroutine 及其上下文
要想运行一个 goroutine - G
,那么一个线程 M
,就必须持有一个该 goroutine 的上下文 P
。
那么当 ch <- task4
执行的时候,channel 中已经满了,需要pause G1
。这个时候,:
G1
会调用运行时的 gopark
,- 然后 Go 的运行时调度器就会接管
- 将
G1
的状态设置为 waiting
- 断开
G1
和 M
之间的关系(switch out),因此 G1
脱离 M
,换句话说,M
空闲了,可以安排别的任务了。 - 从
P
的运行队列中,取得一个可运行的 goroutine G
- 建立新的
G
和 M
的关系(Switch in),因此 G
就准备好运行了。 - 当调度器返回的时候,新的
G
就开始运行了,而 G1
则不会运行,也就是 block 了。
从上面的流程中可以看到,对于 goroutine 来说,G1
被阻塞了,新的 G
开始运行了;而对于操作系统线程 M
来说,则根本没有被阻塞。
我们知道 OS 线程要比 goroutine 要沉重的多,因此这里尽量避免 OS 线程阻塞,可以提高性能。
前面理解了阻塞,那么接下来理解一下如何恢复运行。不过,在继续了解如何恢复之前,我们需要先进一步理解 hchan
这个结构。因为,当 channel 不在满的时候,调度器是如何知道该让哪个 goroutine 继续运行呢?而且 goroutine 又是如何知道该从哪取数据呢?
在 hchan
中,除了之前提到的内容外,还定义有 sendq
和 recvq
两个队列,分别表示等待发送、接收的 goroutine,及其相关信息。
type hchan struct { ... buf unsafe.Pointer // 指向一个环形队列 ... sendq waitq // 等待发送的队列 recvq waitq // 等待接收的队列 ... lock mutex // 互斥量 }
|
其中 waitq
是一个链表结构的队列,每个元素是一个 sudog
的结构,其定义大致为:
type sudog struct { g *g // 正在等候的 goroutine elem unsafe.Pointer // 指向需要接收、发送的元素 ... }
|
https://golang.org/src/runtime/runtime2.go?h=sudog#L270
所以在之前的阻塞 G1
的过程中,实际上:
G1
会给自己创建一个 sudog
的变量- 然后追加到
sendq
的等候队列中,方便将来的 receiver 来使用这些信息恢复 G1
。
这些都是发生在调用调度器之前。
那么现在开始看一下如何恢复。
当 G2
调用 t := <- ch
的时候,channel 的状态是,缓冲是满的,而且还有一个 G1
在等候发送队列里,然后 G2
执行下面的操作:
G2
先执行 dequeue()
从缓冲队列中取得 task1
给 t
G2
从 sendq
中弹出一个等候发送的 sudog
- 将弹出的
sudog
中的 elem
的值 enqueue()
到 buf
中 - 将弹出的
sudog
中的 goroutine,也就是 G1
,状态从 waiting
改为 runnable
- 然后,
G2
需要通知调度器 G1
已经可以进行调度了,因此调用 goready(G1)
。 - 调度器将
G1
的状态改为 runnable
- 调度器将
G1
压入 P
的运行队列,因此在将来的某个时刻调度的时候,G1
就会开始恢复运行。 - 返回到 G2
注意,这里是由 G2
来负责将 G1
的 elem
压入 buf
的,这是一个优化。这样将来 G1
恢复运行后,就不必再次获取锁、enqueue()
、释放锁了。这样就避免了多次锁的开销。
更酷的地方是接收方先阻塞的流程。
如果 G2
先执行了 t := <- ch
,此时 buf
是空的,因此 G2
会被阻塞,他的流程是这样:
G2
给自己创建一个 sudog
结构变量。其中 g
是自己,也就是 G2
,而 elem
则指向 t
- 将这个
sudog
变量压入 recvq
等候接收队列 G2
需要告诉 goroutine,自己需要 pause 了,于是调用 gopark(G2)
- 和之前一样,调度器将其
G2
的状态改为 waiting
- 断开
G2
和 M
的关系 - 从
P
的运行队列中取出一个 goroutine - 建立新的 goroutine 和
M
的关系 - 返回,开始继续运行新的
goroutine
这些应该已经不陌生了,那么当 G1
开始发送数据的时候,流程是什么样子的呢?
G1
可以将 enqueue(task)
,然后调用 goready(G2)
。不过,我们可以更聪明一些。
我们根据 hchan
结构的状态,已经知道 task
进入 buf
后,G2
恢复运行后,会读取其值,复制到 t
中。那么 G1
可以根本不走 buf
,G1
可以直接把数据给 G2
。
Goroutine 通常都有自己的栈,互相之间不会访问对方的栈内数据,除了 channel。这里,由于我们已经知道了 t
的地址(通过 elem
指针),而且由于 G2
不在运行,所以我们可以很安全的直接赋值。当 G2
恢复运行的时候,既不需要再次获取锁,也不需要对 buf
进行操作。从而节约了内存复制、以及锁操作的开销。
goroutine-safe
存储、传递值,FIFO
导致 goroutine 的阻塞和恢复
hchan
中的 sendq
和recvq
,也就是 sudog
结构的链表队列- 调用运行时调度器 (
gopark()
, goready()
) 无缓冲的 channel 行为就和前面说的直接发送的例子一样:
- 接收方阻塞 → 发送方直接写入接收方的栈
- 发送方阻塞 → 接受法直接从发送方的
sudog
中读取 https://golang.org/src/runtime/select.go
- 先把所有需要操作的 channel 上锁
- 给自己创建一个
sudog
,然后添加到所有 channel 的 sendq
或recvq
(取决于是发送还是接收) - 把所有的 channel 解锁,然后 pause 当前调用
select
的 goroutine(gopark()
) - 然后当有任意一个 channel 可用时,
select
的这个 goroutine 就会被调度执行。 - resuming mirrors the pause sequence
更倾向于带锁的队列,而不是无锁的实现。
“性能提升不是凭空而来的,是随着复杂度增加而增加的。” - dvyokov
后者虽然性能可能会更好,但是这个优势,并不一定能够战胜随之而来的实现代码的复杂度所带来的劣势。
- 调用 Go 运行时调度器,这样可以保持 OS 线程不被阻塞
跨 goroutine 的栈读、写。
- 可以让 goroutine 醒来后不必获取锁
- 可以避免一些内存复制
当然,任何优势都会有其代价。这里的代价是实现的复杂度,所以这里有更复杂的内存管理机制、垃圾回收以及栈收缩机制。
在这里性能的提高优势,要比复杂度的提高带来的劣势要大。
所以在 channel 实现的各种代码中,我们都可以见到这种 simplicity vs performance 的权衡后的结果。