码迷,mamicode.com
首页 > 其他好文 > 详细

Spark的几个问题

时间:2018-05-09 19:28:13      阅读:137      评论:0      收藏:0      [点我收藏+]

标签:nbsp   one   ast   executor   red   pre   ado   hadoop   stage   

1、application是由driver和executor组成的,executor可以分成task,task又可以分成为stage。当一个任务提交给spark之后,spark机群的主节点会出现driver进程,从节点会出现executor进程。

2、standalone部署之后,主节点进程是master,工作节点进程是worker

3、spark只有计算功能,它没有存储功能,所以它必须依赖于hdfs,在安装spark之前,必须先安装hadoop。

4、有了spark,就可以写spark程序来做数据处理工作了,就不需要用MapReduce来做了,因为spark的计算速度是MapReduce的100倍以上。

 

Spark的几个问题

标签:nbsp   one   ast   executor   red   pre   ado   hadoop   stage   

原文地址:https://www.cnblogs.com/zhangzl419/p/9015719.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!