码迷,mamicode.com
首页 > 其他好文 > 详细

给pyspark 设置新的环境

时间:2016-11-29 19:04:45      阅读:896      评论:0      收藏:0      [点我收藏+]

标签:conf   环境   ksh   ...   import   需要   name   font   设置   

 

如果是从pysparkshell里面进去,此时已经有了pyspark环境了,所以要加一个:sc.stop()

from pyspark import SparkContext, SparkConf
sc.stop()
conf = SparkConf()
conf.setAppName(‘zhangb‘)
#conf.set("spark.kryoserializer.buffer.mb", "128")
conf.set("spark.kryoserializer.buffer", "128k")
conf.set("spark.kryoserializer.buffer.max", "256m")
sc = SparkContext(conf=conf)

 

如果提交脚本上去,此时还没有pyspark环境,所以不用sc.stop(),直接创建环境参数。但是可能需要在程序结束后加上sc.stop()

from pyspark import SparkContext, SparkConf
conf = SparkConf()
conf.setAppName(‘zhangb‘)
#conf.set("spark.kryoserializer.buffer.mb", "128")
conf.set("spark.kryoserializer.buffer", "128k")
conf.set("spark.kryoserializer.buffer.max", "256m")
sc = SparkContext(conf=conf)

#===代码

#......

#=====代码

sc.stop()

 

给pyspark 设置新的环境

标签:conf   环境   ksh   ...   import   需要   name   font   设置   

原文地址:http://www.cnblogs.com/zhangbojiangfeng/p/6114635.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!