擅长:python、mysql、java
<p>我在Windows7上也遇到了这个问题,它使用了预先构建的Spark2.2。以下是Windows用户的可能解决方案:</p>
<ol>
<li><p>确保正确设置了所有环境路径,包括<code>SPARK_PATH</code>、<code>HADOOP_HOME</code>等。</p></li>
<li><p>获取Spark Hadoop预构建包的正确版本<code>winutils.exe</code></li>
<li><p>然后打开命令提示符作为管理,运行以下命令:</p>
<p><code>winutils chmod 777 C:\tmp\hive</code></p>
<p>注意:根据调用<code>pyspark</code>或<code>spark-shell</code>的位置,驱动器可能不同</li>
</ol>
<p>此链接应获得以下荣誉:<a href="http://apache-spark-user-list.1001560.n3.nabble.com/Spark-2-1-0-issue-with-spark-shell-and-pyspark-td28339.html" rel="nofollow noreferrer">see the answer by timesking</a></p>