擅长:python、mysql、java
<p>这是可能的,不需要依赖一个缓慢的<code>UDF</code>。相反,通过指定正确的格式,用<code>unix_timestamp</code>解析数据。然后将该列转换为<code>DateType</code>,这将为您提供默认格式(yyyy-mm-dd):</p>
<pre><code>df.withColumn('DATE_OPENED', unix_timestamp('DATE_OPENED','mmddyy').cast(DateType()))
</code></pre>
<p>如果您有Spark 2.2+版本,还有一种更方便的方法,<code>to_date</code>:</p>
^{pr2}$