码迷,mamicode.com
首页 > 其他好文 > 详细

spark textFile读取多个文件

时间:2019-08-17 18:25:42      阅读:1650      评论:0      收藏:0      [点我收藏+]

标签:简单   class   str   spark   写法   list   多个   code   div   

1.spark textFile读取File

1.1 简单读取文件

val spark = SparkSession.builder()
    .appName("demo")
    .master("local[3]")
    .getOrCreate()

// 读取hdfs文件目录
spark.sparkContext.textFile("/user/data")
spark.sparkContext.textFile("hdfs://10.252.51.58:8088/user/data")
// 读取本地目录
spark.sparkContext.textFile("file://user/data")

1.2 正则模式读取文件

val spark = SparkSession.builder()
    .appName("demo")
    .master("local[3]")
    .getOrCreate()

// 读取hdfs文件目录
spark.sparkContext.textFile("/user/data/201908/0[1-9]/*")

2.spark textFile读取多个File

2.1 将多个文件变成一个 list 作为参数

正确写法:sc.TextFile( filename1 + "," + filename2 + "," + filename3)

val spark = SparkSession.builder()
    .appName("demo")
    .master("local[3]")
    .getOrCreate()

val fileList = Array("/user/data/source1","/user/data/source2","/user/data/source3")
// 读取hdfs文件目录
spark.sparkContext.textFile(fileList.mkString(","))

2.2 使用 union 连接

val spark = SparkSession.builder()
    .appName("demo")
    .master("local[3]")
    .getOrCreate()

val fileList = Array("/user/data/source1","/user/data/source2","/user/data/source3")
//array[RDD]
val fileRDD:Array[RDD[String]] = fileList.map(spark.sparkContext.textFile(_)

spark.sparkContext.union(fileRDD)

 

spark textFile读取多个文件

标签:简单   class   str   spark   写法   list   多个   code   div   

原文地址:https://www.cnblogs.com/yyy-blog/p/11369389.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!