【发布时间】:2025-12-27 05:00:07
【问题描述】:
我想要一个用于 Spark Sql 的 concat 函数。 我写了一个udf为
sqlContext.udf.register("CONCAT",(args:String*)=>{
String out=""
for(arg<-args)
{
out+=arg
}
out
})
sqlContext.sql("select col1,col2,CONCAT(col1,col2) from testtable")
但是这个 udf 不起作用,我遇到了一个异常。 如果我尝试使用固定数量的参数,那么它可以工作。 我正在使用 spark 1.3.1 和 scala 2.10.5。
有没有人遇到过这个问题或知道解决方案?
【问题讨论】:
-
能否提供问题中的例外情况?
标签: scala apache-spark apache-spark-sql