我正在处理一个大文件,其中有一个mmddyy格式的字段,数据类型为string,我需要将其转换为YYYY-MM-DD。我确实尝试过创建UDF并引用其中一个post进行转换,但是它抛出了错误。样本代码:
数据帧中的实际字段:
+-----------+
|DATE_OPENED|
+-----------+
| 072111|
| 090606|
预期产量:
^{pr2}$样本代码:
func = udf (lambda x: datetime.strptime(x, '%m%d%Y'), DateType())
newdf = olddf.withColumn('open_dt' ,date_format(func(col('DATE_OPENED')) , 'YYYY-MM-DD'))
错误:
Error : ValueError: time data '072111' does not match format '%m%d%Y'
我能够在不创建udf的情况下解决它,我确实在stack上引用了一个类似的post(pyspark substring and aggregation),它工作得非常完美。在
这是可能的,不需要依赖一个缓慢的
UDF
。相反,通过指定正确的格式,用unix_timestamp
解析数据。然后将该列转换为DateType
,这将为您提供默认格式(yyyy-mm-dd):如果您有Spark 2.2+版本,还有一种更方便的方法,
^{pr2}$to_date
:相关问题 更多 >
编程相关推荐