SparkContext是用户程序和Spark交互的接口,它会负责连接到Spark集群,并且根据系统默认配置和用户设置来申请计算资源,完成RDD的创建等工作。
本文出自 “王家林大数据语录” 博客,请务必保留此出处http://wangjialin2dt.blog.51cto.com/10467465/1723398
王家林每日大数据语录Spark篇0010(2015.11.2于深圳)
原文地址:http://wangjialin2dt.blog.51cto.com/10467465/1723398