码迷,mamicode.com
首页 > 其他好文 > 详细

Spark下的RHive的连接

时间:2017-04-12 18:34:18      阅读:171      评论:0      收藏:0      [点我收藏+]

标签:cloud   ges   default   rom   ado   init   connect   tab   package   

Sys.setenv(HADOOP_CONF_DIR=‘/etc/hadoop/conf.cloudera.hdfs‘)
Sys.setenv(YARN_CONF_DIR=‘/etc/hadoop/conf.cloudera.yarn‘)
library(SparkR, lib.loc = "/opt/modules/spark/R/lib")
library(RHive)

sc <- sparkR.init(sparkHome = "/opt/modules/spark",
sparkPackages="com.databricks:spark-csv_2.10:1.4.0")
sqlContext <- sparkRSQL.init(sc)

rhive.connect("master", defaultFS=‘hdfs://master:8020‘,hiveServer2=TRUE,user="hue")
rhive.query("select * from data.data_orders limit 5")

rhive.close()

Spark下的RHive的连接

标签:cloud   ges   default   rom   ado   init   connect   tab   package   

原文地址:http://www.cnblogs.com/wisetree/p/6700562.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!