将hive-site.xml
拷贝到
$SPARK_HOME/conf中
配置如 hive使用 mysql一样,注意赋予相应的权限。
javax.jdo.option.ConnectionURL
jdbc:mysql://xxxx:3306/sparkmetadata?createDatabaseIfNotExist=true
启动spark-sql要给driver路径
spark-sql --driver-class-path /usr/local/spark/spark-1.3.0-bin-hadoop2.3/lib/mysql-connector-java-5.1.6-bin.jar
这样就完成了。
原文地址:http://7737197.blog.51cto.com/7727197/1664713