码迷,mamicode.com
首页 > 其他好文 > 详细

利用docker 部署 spark项目的端口问题

时间:2017-05-21 21:45:15      阅读:646      评论:0      收藏:0      [点我收藏+]

标签:spark 大数据 hadoop docker

利用Docker  安装项目:

local模式要设置sparklocal.spark.driver.host

yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置

sparkyarn.spark.driver.bindAddress

和 blockmanager

即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress

和 blockmanager即可

注意:sparkyarn.spark.driver.bindAddress 是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。


本文出自 “去买大白兔” 博客,转载请与作者联系!

利用docker 部署 spark项目的端口问题

标签:spark 大数据 hadoop docker

原文地址:http://xk0230.blog.51cto.com/11859350/1927867

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!