码迷,mamicode.com
首页 > 系统相关 > 详细

Chromium多进程机制解析

时间:2015-03-21 17:08:46      阅读:2536      评论:0      收藏:0      [点我收藏+]

标签:chromium   多进程   

关于Chromium IPC多进程分析的文章很多了,这篇尝试以浅显的方式解释Chromium多进程机制,解析IPC内部运作的基本机制

Chromium如何保证多进程的性能

对于一个多进程应用,其核心要解决的是并发的问题.因为底层IPC机制的原因,其中一条路径又进一步演变为并发网络通信问题,两个面: 线程/进程网络


在Chromium中, 主要运用了以下关键技术:

  • Unix Domain Socket (POSIX下使用的IPC机制)
  • libevent (轻型事件驱动的网络库,用于监听IPC中的端口(文件描述符))
  • ChannelProxy (为Channel提供线程安全的机制)
  • 闭包 (线程的运作方式)

先修路! 建立通道

写一个单机下多进程应用的核心就是建立进程之间沟通的方式,可以称为channel 或者 pipe。操作系统会提供这样的基础机制,包括:named pipe, shared memory, socket。


Chromium在POSIX下使用Unix Domain Socket来实现。Unix Domain Socket通过复用网络socket的标准接口,提供轻量级的稳定的本机socket通讯。Unix Domain的命名则是来自于使用socket时将domain参数定义为: PF_UNIX (Mac OS)或AF_UNIX, 来标识为单机的通讯使用。socket的建立不以IP地址为目标了,而是由文件系统中的FD(文件描述符)。


socket API原本是为网络通讯设计的,但后来在socket的框架上发展出一种IPC机制,就是UNIX Domain Socket。虽然网络socket也可用于同一台主机的进程间通讯(通过loopback地址127.0.0.1),但是UNIX Domain Socket用于IPC更有效率:不需要经过网络协议栈,不需要打包拆包、计算校验和、维护序号和应答等,只是将应用层数据从一个进程拷贝到另一个进程。 UNIX域套接字与TCP套接字相比较,在同一台主机的传输速度前者是后者的两倍。这是因为,IPC机制本质上是可靠的通讯,而网络协议是为 不可靠的通讯设计的。UNIX Domain Socket也提供面向流和面向数据包两种API接口,类似于TCP和UDP,但是面向消息的UNIX Domain Socket也是可靠的,消息既不会丢失也不会顺序错乱。

使用UNIX Domain Socket的过程和网络socket十分相似,也要先调用socket()创建一个socket文件描述符,address family指定为AF_UNIX,type可以选择SOCK_DGRAM或SOCK_STREAM,protocol参数仍然指定为0即可。

UNIX Domain Socket与网络socket编程最明显的不同在于地址格式不同,用结构体sockaddr_un表示,网络编程的socket地址是IP地址加端口 号,而UNIX Domain Socket的地址是一个socket类型的文件在文件系统中的路径。


Chromium在POSIX下直接使用socketpair() API创建了已经连通的匿名管道, 逻辑结构如下:

技术分享

可以看过IPC机制里区分了Server和Client, 其实通过socketpair()创建的匿名管道是全双工,实质上并不区分Server/Client。

这个IPC建立的过程是在主进程完成的,需要使用其它的机制通知子进程。在Android Chrome下,通过传递FD列表完成这个操作。这个稍后再解释 (可以查找kPrimaryIPCChannel学习)。

当子进程知道Server端的socket FD后,就可以进行连接,发送hello message,  认证后就可以开始通讯了。


通讯端口的管家

当端口打通后,效率成为关键。通常而言,一般这时候会考虑为了及时处理收到消息,要么轮询,要么实现回调。但事情并不是这么简单。

虽说Unix Domain Socket不走网络栈已经提升不了性能。但还有负载的问题需要解决。使用回调机制是必须的,更重要的是面临C10K问题:

C10K Problem 

C10K 问题的最大特点是:设计不够良好的程序,其性能和连接数及机器性能的关 系往往是非线性的。举个例子:如果没有考虑过 C10K 问题,一个经典的基于 select 的程序能在旧服务器上很好处理 1000 并发的吞吐量,它在 2 倍性能新服务器上往往处 理不了并发 2000 的吞吐量。


Chromium使用了大名鼎鼎的第三方并发网络库:libevent来完成这项工作 (另外还有ACE,自适应通信环境)。 下面是它的功能介绍:

Libevent是一个轻量级的开源高性能网络库.有几个显著的亮点:

a. 事件驱动(event-driven),

b. 高性能 轻量级,专注于网络,不如ACE那么臃肿庞大

c. 注册事件优先级

基本的socket编程是阻塞/同步的,每个操作除非已经完成或者出错才会返回,这样对于每一个请求,要使用一个线程或者单独的进程去处理,系统资源没法支撑大量的请求(所谓c10k problem),例如内存:默认情况下每个线程需要占用2~8M的栈空间。posix定义了可以使用异步的select系统调用,但是因为其采用了轮询的方式来判断某个fd是否变成active,效率不高[O(n)],连接数一多,也还是撑不住。于是各系统分别提出了基于异步/callback的系统调用,例如Linux的epoll,BSD的kqueue,Windows的IOCP。由于在内核层面做了支持,所以可以用O(1)的效率查找到active的fd。基本上,libevent就是对这些高效IO的封装,提供统一的API,简化开发。


相当于在通讯端口设了一位大管家,提升IPC交互的能力。


Libevent的核心是应用了解决并发问题中常用的基于事件驱动的Reactor模式。简单而言就是通过一个内部的循环,在事件触发时启动并进行响应,无事件时则挂起.它同样需要注意事件回调的处理不能做太多事情,避免拥塞.在Chromium里的代码体现IPC Channel实现如下接口:

// Used with WatchFileDescriptor to asynchronously monitor the I/O readiness

// of a file descriptor.

class Watcher {

 public:

  // Called from MessageLoop::Run when an FD can be read from/written to

  // without blocking

  virtual void OnFileCanReadWithoutBlocking(int fd) = 0;

  virtual void OnFileCanWriteWithoutBlocking(int fd) = 0;

 protected:

  virtual ~Watcher() {}

};

关于Reactor模式和另一类相似的模式的比对, 可以读一下这篇文章


专人接待! 排队,排队...


IPC通道已经建立好了,但有一大群的调用者。任何人都想在自己方便的时候进行IPC通讯,这样就存在并发问题了。Channel本身只想做好通道的管理工作,一心对外。 Chromium为此引入了Channel Proxy。 

     技术分享

Proxy从设计模式上来看,职能上就是服务上的秘书,安排访客与Channel见面的时间和方式。同线程的可以入队列等候,不同线程的,不好意思,出门右拐,再进来。总之Channel只在一个线程上做事,Channel Proxy负责将要处理的事务安排到指定的线程上。 

bool ChannelProxy::Send(Message* message) {

  context_->ipc_task_runner()->PostTask(

      FROM_HERE,

      base::Bind(&ChannelProxy::Context::OnSendMessage,

                 context_, base::Passed(scoped_ptr<Message>(message))));

  return true;

}


在Chromium中的线程只负责建立跑道,执行事务,它不会保存特定任务的上下文信息(有助于提高性能),也不关心执行的是什么事务。执行什么操作完全由上层的业务逻辑决定。在主干道上,任务的处理时间是非常宝贵的,特定是在UI线程上。进程里会指定Channel处理任务所在的线程,多线程情况以下线程任务的方式请求Channel发送及处理消息。在线程上其核心就是闭包的实现.

 

让线程更高效 - 裸奔的线程

提升应用程序的并发能力,两个要点:

  • 任务响应短,快.不要有耗时的事务.
  • 避免频繁的上下文切换.


前面提到的libevent中应用的Reactor模式也是要达到相同的目的. 第一点是应用层的一个约定,第二层就是线程机制要保障的.


传统的线程在创建时就会指定一个入口,往往已经是一个具体功能的入口了,里面会一个循环,对所要监测的事件,以及对应的处理,这个循环体本身是清楚,甚至可以做一些逻辑判断工作.这些就是因为它掌握了当前任务的上下文信息. 


Chromium上的线程可以避免这类的上下文切换, 线程本身不保存任务的信息,任务对其是透明的,线程只负责调用其执行操作,可以视为裸奔的状态,没有任何负担.跑在线程上的任务以典型的Command模式实现。它必须解决两个问题:

  • 任务本身在一个线程运行,就可以由其自己保存上下文信息.
  • 任务的参数(也是一种上下文),则可以通过闭包的方式也由其自己保存.


闭包在C++有很多的尝试,Chromium中特别说明其也参考了tr1::bind的设计.关于Chromium的线程实现这里先不多做说明。

 

Chromium进程架构

从逻辑上来看,Chromium将UI所在的进程视为主进程,取名为Browser, 页面渲染所在的进程以及其它业务进程,都是子进程。包括Renderer, GPU等。

主进程本身除了初始化自身,还要负责创建子进程,同时通知建立channel的信息(文件描述符)。概念模型如下:

    技术分享


对于Chromium而言,Contents已经代表一个浏览器能力,在其上就是实现浏览器业务的Embedder了。但不同的Embedder或者在不同的平台进程的选择可能不同,比如启动一个浏览主进程的行为不同(比如在Android上就不需要启动新进程了,直接初化BrowserMainRunner。而Linux则可以要以Service Process的形式运行主进程。),初始化SandBox的方式不同。Chromium与是将所有进程的启动的操作集中起来供Embedder和主进程来启动新进程 (Embedder负责启动Browser进程, 主进程则再启动新进程,并在ContentMainRunner中根据参数启动不同的子进程。):

     技术分享

*在单进程模型下,主进程就不会直接启动子进程了,而是通过CreateInProcessRendererThread()创建新的线程(InProcessRendererThread),同样会传入channel描述符。


进一步看主进程和Renderer进程,两边负责接口的,则是两个兼有(继承)IPC::Sender和IPC::Listener功能的类:RenderProcessHost和RenderThread。没错,就是RenderThread! RenderProcess也存在,只是一个进程的逻辑表示,只有一小部分的代码。以单进程模式下调用InProcessRendererThread来初始化RenderThread为例,可以看到channel_id_是传入到RenderThread中处理的。

void InProcessRendererThread::Init() {

  render_process_.reset(new RenderProcessImpl());

  new RenderThreadImpl(channel_id_);

}

专线与公共线路 - 消息的分发

分发消息时,分为广播和专线两种方式。在Chromium中一个页面在不同线程,Browser和Renderer两端以routed id为标识彼此。如果要说悄悄话,就指定一个routed id, 这类消息称为Routed Message,是专线。 另一类消息,则是进行广播,不区分身份,这类消息为Control Message。

    技术分享


RenderView (继承自RenderWidget)用于向IPC Channel注册自己的代码在RenderWidget::DoInit():

bool result = RenderThread::Get()->Send(create_widget_message);

if (result) {

  RenderThread::Get()->AddRoute(routing_id_, this);

  ......

}

另外在Browser和Render Thread初始化时,都会在IPC Channel上增加一组Filters,以便供其它功能使用。

 

参考资料


Chromium多进程机制解析

标签:chromium   多进程   

原文地址:http://blog.csdn.net/horkychen/article/details/44516633

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!