码迷,mamicode.com
首页 > 其他好文 > 详细

Spark -14:spark Hadoop 高可用模式下读写hdfs

时间:2017-05-29 12:51:06      阅读:241      评论:0      收藏:0      [点我收藏+]

标签:set   文件   configure   conf   namenode   ext   strong   pac   ilo   

第一种,通过配置文件

  val sc = new SparkContext()

    sc.hadoopConfiguration.set("fs.defaultFS", "hdfs://cluster1");
    sc.hadoopConfiguration.set("dfs.nameservices", "cluster1");
    sc.hadoopConfiguration.set("dfs.ha.namenodes.cluster1", "nn1,nn2");
    sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster1.nn1", "namenode001:8020");
    sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster1.nn2", "namenode002:8020");
    sc.hadoopConfiguration.set("dfs.client.failover.proxy.provider.cluster1", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider");

第二种,通过Java代码

   val conf = new SparkConf().setAppName("Spark Word Count") 
    val sc = new SparkContext()
    sc.hadoopConfiguration.addResource("cluster1/core-site.xml")
    sc.hadoopConfiguration.addResource("cluster1/hdfs-site.xml")

Spark -14:spark Hadoop 高可用模式下读写hdfs

标签:set   文件   configure   conf   namenode   ext   strong   pac   ilo   

原文地址:http://www.cnblogs.com/nucdy/p/6917701.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!