PySpark SQL: 改变列的数据类型

2021-11-05 09:26:58.0

1、使用Python的字典类型数据来构建DataFrame

from pyspark.sql.types import ArrayType, StructField, StructType, StringType, IntegerType, DecimalType
from decimal import Decimal

# List
data = [{"Category": 'Category A', "ID": 1, "Value": Decimal(12.40)},
        {"Category": 'Category B', "ID": 2, "Value": Decimal(30.10)},
        {"Category": 'Category C', "ID": 3, "Value": Decimal(100.01)}
       ]

schema = StructType([
    StructField('Category', StringType(), False),
    StructField('ID', IntegerType(), False),
    StructField('Value', DecimalType(scale=2), True)
])

# 创建DataFrame
df = spark.createDataFrame(data, schema)
print(df.schema)
df.show()

执行以上代码,输出结果如下:

StructType(List(StructField(Category,StringType,false),StructField(ID,IntegerType,false),StructField(Value,DecimalType(10,2),true)))
+----------+---+------+
|  Category| ID| Value|
+----------+---+------+
|Category A|  1| 12.40|
|Category B|  2| 30.10|
|Category C|  3|100.01|
+----------+---+------+

2、使用lit 函数增加两个常量列

from pyspark.sql.functions import lit

df1 = df.withColumn('Str_Col1', lit('1')) \
        .withColumn('Str_Col2', lit('2020-08-09'))
df1.show()
print(df1.schema)

执行以上代码,输出结果如下:

+----------+---+------+--------+----------+
|  Category| ID| Value|Str_Col1|  Str_Col2|
+----------+---+------+--------+----------+
|Category A|  1| 12.40|       1|2020-08-09|
|Category B|  2| 30.10|       1|2020-08-09|
|Category C|  3|100.01|       1|2020-08-09|
+----------+---+------+--------+----------+
StructType(List(StructField(Category,StringType,false),StructField(ID,IntegerType,false),StructField(Value,DecimalType(10,2),true),StructField(Str_Col1,StringType,false),StructField(Str_Col2,StringType,false)))

从输出结果可以看出,当前的数据类型分别是: StringType, IntegerType, DecimalType, StringType 和 StringType。

3、使用cast 函数改变列类型

可使用函数DataFrame.cast来转换数据类型。

from pyspark.sql.types import DateType

df1 = df1.withColumn("Str_Col1_Int", df1['Str_Col1'].cast('int')).drop('Str_Col1') \
         .withColumn('Str_Col2_Date', df1['Str_Col2'].cast(DateType())).drop('Str_Col2')
df1.show()
print(df1.schema)

执行以上代码,输出结果如下:

+----------+---+------+------------+-------------+
|  Category| ID| Value|Str_Col1_Int|Str_Col2_Date|
+----------+---+------+------------+-------------+
|Category A|  1| 12.40|           1|   2020-08-09|
|Category B|  2| 30.10|           1|   2020-08-09|
|Category C|  3|100.01|           1|   2020-08-09|
+----------+---+------+------------+-------------+

StructType(List(StructField(Category,StringType,false),StructField(ID,IntegerType,false),StructField(Value,DecimalType(10,2),true),StructField(Str_Col1_Int,IntegerType,true),StructField(Str_Col2_Date,DateType,true)))

可以看出,新增加的两列已经被转换为IntegerType和DateType。

另外,上面的代码中,cast函数的使用方式也不同:一个使用隐式类型字符串 'int',而另一个使用显式类型DateType。对于后者,需要确保导入该类。


《PySpark原理深入与编程实战》