码迷,mamicode.com
首页 > 数据库 > 详细

Spark SQL读取MySQL的dept和hive的emp表,做join和分组查询,后写到json

时间:2019-06-22 23:39:59      阅读:176      评论:0      收藏:0      [点我收藏+]

标签:read   show   user   读取   write   mys   mysql   roo   orm   

val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://hadoop000:3306").option("dbtable", "hive.dept").option("user", "root").option("password", "123456").load() jdbcDF.createOrReplaceTempView("dept") val hiveDF = sql("SELECT * FROM emp") val sqlDF =?sql("SELECT * FROM emp e JOIN dept d ON e.deptno = d.deptno").show sqlDF.write.format("json").save("file:///empJoinDept.json")

Spark SQL读取MySQL的dept和hive的emp表,做join和分组查询,后写到json

标签:read   show   user   读取   write   mys   mysql   roo   orm   

原文地址:https://blog.51cto.com/14309075/2412199

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!