码迷,mamicode.com
首页 > 其他好文 > 详细

Spark Client启动原理探索

时间:2018-01-20 01:00:24      阅读:139      评论:0      收藏:0      [点我收藏+]

标签:info   pcl   ima   技术   div   end   自己   dep   分享   

经过几天闲暇时间的学习,终于又理解的深入了一些,关于Spark Client如何提交作业也更清晰了点。

在整体的流程图上是这样的:
技术分享图片
大体的思路就是应用程序通过SparkSubmit提交程序后,自动在当前的JVM中启动Driver,然后与Master通信创建Excutor执行相应的任务。

自己整理了下流程图
技术分享图片

以及的组件图:
技术分享图片

可以看到大概是下面的步骤:

  1. 新建SparkContext
  2. 创建对应的scheduler和schedulerBackend

     val (sched, ts) = SparkContext.createTaskScheduler(this, master, deployMode)
    _schedulerBackend = sched
    _taskScheduler = ts
    ...
    _taskScheduler.start()
  3. 启动scheduler的start方法,内部调用backend的start方法
  4. backend调用父类CoarseGrainedSchedulerBackend的start方法

    override def start() {
      super.start()
      ...
      client = new StandaloneAppClient(sc.env.rpcEnv, masters, appDesc, this, conf)
      client.start()
    }
  5. 创建对应的drvierEndpoint
  6. 在backend的start()方法里面创建StandaloneAppClient
  7. 执行StanaloneAppClient对象的start方法,内部创建ClientEndpoint

DriverEndpoint和ClientEndpoint都会跟Master进行通信,接下来的处理就是编译驱动程序的代码,发送给excutor进行相应的处理。

Spark Client启动原理探索

标签:info   pcl   ima   技术   div   end   自己   dep   分享   

原文地址:https://www.cnblogs.com/xing901022/p/8319482.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!