码迷,mamicode.com
首页 > 数据库 > 详细

SPARK_sql加载,hive以及jdbc使用

时间:2019-03-29 01:12:06      阅读:368      评论:0      收藏:0      [点我收藏+]

标签:pass   arch   .com   文件   name   methods   ram   mysq   jdb   

sql加载

技术图片

技术图片

 

 格式

技术图片

技术图片

 或者下面这种直接json加载

 技术图片

或者下面这种spark的text加载

技术图片

技术图片

 

以及rdd的加载

 技术图片

技术图片

技术图片

 

 技术图片

技术图片

技术图片

上述记得配置文件加入.mastrt("local")或者spark://master:7077

技术图片

技术图片

dataset的生成

技术图片

 下面是dataframe

 技术图片

 下面是dataset

 

技术图片

 

 

技术图片

技术图片

 

 技术图片

 

 

 技术图片

技术图片

$ bin/spark-shell --master spark://master01:7077 --jars mysql-connector-java-5.1.27-bin.jar 

 

加载连接的两种方式

 技术图片

技术图片

// Note: JDBC loading and saving can be achieved via either the load/save or jdbc methods

// Loading data from a JDBC source

val jdbcDF = spark.read.format("jdbc").option("url",

"jdbc:mysql://master01:3306/mysql").option("dbtable", "db").option("user",

"root").option("password", "hive").load()

 

 

 

val connectionProperties = new Properties()

connectionProperties.put("user", "root")

connectionProperties.put("password", "hive")

val jdbcDF2 = spark.read .jdbc("jdbc:mysql://master01:3306/mysql", "db", connectionProperties)

 

 

 

保存数据的两种方式

技术图片

// Saving data to a JDBC source

jdbcDF.write

.format("jdbc")

.option("url", "jdbc:mysql://master01:3306/mysql")

.option("dbtable", "db")

.option("user", "root")

.option("password", "hive")

.save()

jdbcDF2.write .jdbc("jdbc:mysql://master01:3306/mysql", "db", connectionProperties)

 技术图片

// Specifying create table column data types on write

jdbcDF.write

.option("createTableColumnTypes", "name CHAR(64), comments VARCHAR(1024)")

.jdbc("jdbc:mysql://master01:3306/mysql", "db", connectionProperties)

 

 技术图片

技术图片

技术图片

技术图片

技术图片

技术图片

 

SPARK_sql加载,hive以及jdbc使用

标签:pass   arch   .com   文件   name   methods   ram   mysq   jdb   

原文地址:https://www.cnblogs.com/pursue339/p/10618722.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!