码迷,mamicode.com
首页 > 数据库 > 详细

sparksql udf自定义函数中参数过多问题的解决

时间:2017-10-27 01:54:59      阅读:240      评论:0      收藏:0      [点我收藏+]

标签:spark sql   ring   sub   实现   val   udf   函数   spark   数字   

在进行spark sql数据库操作中,常常需要一些spark系统本身不支持的函数,如获取某一列值中的字符串。


如要获取 “aaaakkkkk”中的第4-第8个字符。


针对这种需求,只有设置UDF来实现了。


val fun:((String,Int,Int) => String) = (args:String, k1:Int, k2:Int) => { args.substr(k1,k2)} 

val sqlfunc = udf(fun)


df.withColumn("column22", sqlfunc(col("column1"), 1,3)


这样就报错。


才发现这里面由于UDF的原因,在任何函数中这个数字本身是不认的,因此需要加上lit()的命令才可以。




df.withColumn("column22", sqlfunc(col("column1"), lit(1), lit(3)),只有这样才可以实现。




df.withColumn("column22", sqlfunc(col("column1"), 1,3)

sparksql udf自定义函数中参数过多问题的解决

标签:spark sql   ring   sub   实现   val   udf   函数   spark   数字   

原文地址:http://www.cnblogs.com/harvey888/p/7740161.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!