擅长:python、mysql、java
<p>如果您有一个数据帧,您可以使用Spark CSV作为CSV写入,分隔符如下。</p>
<pre><code>df.write.mode(SaveMode.Overwrite).option("delimiter", "\u0001").csv("outputCSV")
</code></pre>
<p>使用旧版本的Spark</p>
<pre><code>df.write
.format("com.databricks.spark.csv")
.option("delimiter", "\u0001")
.mode(SaveMode.Overwrite)
.save("outputCSV")
</code></pre>
<p>你可以读如下</p>
<pre><code>spark.read.option("delimiter", "\u0001").csv("outputCSV").show()
</code></pre>
<p>如果有RDD,则可以对<code>RDD</code>使用<code>mkString()</code>函数,并使用<code>saveAsTextFile()</code>保存</p>
<pre><code>rdd.map(r => r.mkString(\u0001")).saveAsTextFile("outputCSV")
</code></pre>
<p>希望这有帮助!</p>