码迷,mamicode.com
首页 > 其他好文 > 详细

06、部署Spark程序到集群上运行

时间:2018-08-27 21:57:16      阅读:164      评论:0      收藏:0      [点我收藏+]

标签:zhang   ges   ast   blog   mys   通过   build   文件加载   部分   

06、部署Spark程序到集群上运行

6.1 修改程序代码

  1. 修改文件加载路径

    在spark集群上执行程序时,如果加载文件需要确保路径是所有节点能否访问到的路径,因此通常是hdfs路径地址。所以需要修改代码中文件加载路径为hdfs路径:

    ...
    //指定hdfs路径
    sc.textFile("hdfs://mycluster/user/centos/1.txt") 
    ...

    ?

  2. 修改master地址

    SparkConf中需要指定master地址,如果是集群上运行,也可以不指定,运行时可以通过命令行动态获取。

    //设置master地址或者注释掉该行
    conf.setMaster("spark://s101:7077")

6.2 导出jar包

  1. 进入项目结构窗口

    技术分享图片

  2. 定位artifacts部分中

    技术分享图片

  3. 导出的jar中删除依赖的第三方jar包

    技术分享图片

    技术分享图片

  4. 通过builds -> build artifacts菜单导出jar包

    技术分享图片

    技术分享图片

  5. 到对应的导出目录查看jar文件

    技术分享图片

  6. 查看jar包中类的内容

    $>jar -tf myspark.jar | more

    执行结果如下图所示:

    技术分享图片

6.3 提交job到Spark集群

使用spark-submit命令提交jar包到spark集群执行。

$>spark-submit --class com.oldboy.spark.java.WordCountJava --master spark://s101:7077 myspark.jar

执行结果如下图所示:

技术分享图片

06、部署Spark程序到集群上运行

标签:zhang   ges   ast   blog   mys   通过   build   文件加载   部分   

原文地址:https://www.cnblogs.com/xupccc/p/9543979.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!