Spark中怎么自定义函数
本篇文章为大家展示了Spark中怎么自定义函数,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
在城步等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供网站建设、网站设计 网站设计制作按需定制网站,公司网站建设,企业网站建设,品牌网站设计,成都全网营销推广,成都外贸网站建设,城步网站建设费用合理。
UDF函数
def myUdf(id: Int) = s"tag$id" sqlContext.udf.register("myUdf", myUdf(_:Int)) df.registerTempTable("tb1") sqlContext.sql("select myUdf(col1) from tb1 ") val myUdf = udf((vec: Int) => s"tag$vec") df.withColumn("newId",myUdf($"item")).show() spark.udf.register("myfunction", (str: String) => { ... })
SparkSessionUDF
val spark: SparkSession = SparkSession.builder().master("local") .appName(getClass.getSimpleName) .enableHiveSupport() .getOrCreate() import org.apache.spark.sql.functions._ val userData = Array(("A", 16), ("B", 21), ("C", 14), ("D", 18)) val userDF = spark.createDataFrame(userData).toDF("name", "age") val strLen = udf((str: String) => str.length()) userDF.withColumn("name_len", strLen(col("name"))) userDF.show(false)
上述内容就是Spark中怎么自定义函数,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。
文章题目:Spark中怎么自定义函数
URL标题:http://scyingshan.cn/article/pgdpgd.html