擅长:python、mysql、java
<p>Spark的存储和计算的默认内存部分是<code>0.6</code>。在您的配置下,它将是<code>0.6 * 50GB = 30GB</code>。但是,在内存中表示数据可能会比序列化的磁盘版本消耗更多的空间。在</p>
<p>请查看<a href="https://spark.apache.org/docs/latest/configuration.html#memory-management" rel="nofollow noreferrer">Memory Management</a>部分以获取更多详细信息。在</p>