码迷,mamicode.com
首页 > 数据库 > 详细

spark sql 访问hive数据时找不mysql的解决方法

时间:2016-08-10 12:31:34      阅读:242      评论:0      收藏:0      [点我收藏+]

标签:

我尝试着在classpath中加n入mysql的驱动仍不行

解决方法:在启动的时候加入参数--driver-class中加入mysql 驱动

[hadoop@master spark-1.0.1-bin-hadoop2]$ bin/spark-shell --driver-class-path lib/mysql-connector-java-5.1.30-bin.jar 

 

总结:
1.spark的版本必须编译的时候加上了hive 1.0.0预编译版没有加入hive  1.0.1是含有hive的
2.需要将hive-site.xml这个配置文件放到spark conf下面
3.需要将mysql驱动加载到classpath中

spark sql 访问hive数据时找不mysql的解决方法

标签:

原文地址:http://www.cnblogs.com/yaohaitao/p/5755991.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!