Spark系列 —— 一行代码转化DataFrame所有列的类型

应用场景

当需要把DataFrame中所有列的类型转换成另外一种类型,并且这个DataFrame中字段很多,一个一个地转换要写很多冗余代码的时候,就可以使用如下这两种转换方式。
 
 

方法一

代码如下

import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.functions.col


val df: DataFrame = ...

val columns: Array[String] = df.columns

val df2: DataFrame = columns.foldLeft(df){
    (currentDF, column) => currentDF.withColumn(column, col(column).cast("string"))
}
  • 变量columns代表df这DataFrame中的所有列,是一个String类型的数组。
  • foldLeft函数的作用就是,以df为初始值,从左向右遍历columns数组,并把df和columns中的每个元素作为参数传入foldLeft后面的函数中(也就是foldLeft后面的大括号中)。
  • withColumn中将每一列转换成String类型,并覆盖currentDF中同名字段的列。因为在withColumn函数中,如果存在同名的列,默认是进行替换的。
     
     

方法二

代码如下

import org.apache.spark.sql.{Column, DataFrame}
import org.apache.spark.sql.functions.col


val df: DataFrame = ...

val columns: Array[String] = df.columns

val arrayColumn: Array[Column] = columns.map(column => col(column).cast("string"))

val df2: DataFrame = df.select(arrayColumn :_*)

这种方法通过map函数将columns中的每一列转换成String类型,返回一个Column类型的数组。

  • :_*的作用就是,将arrayColumn数组中的每个元素作为参数传入select函数中,而不是将arrayColumn作为一个参数传入select中。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章