擅长:python、mysql、java
<p>看起来您已经在上面的答案中找到了问题的第二部分的答案,但是对于通过<code>'org.apache.spark.sql.hive.HiveSessionState'</code>错误到达这里的未来用户来说,这个类可以在spark hive jar文件中找到,如果不是用hive构建的,它就不会与spark捆绑在一起。</p>
<p>你可以在以下网址获得这个罐子:</p>
<pre><code>http://central.maven.org/maven2/org/apache/spark/spark-hive_${SCALA_VERSION}/${SPARK_VERSION}/spark-hive_${SCALA_VERSION}-${SPARK_VERSION}.jar
</code></pre>
<p>您必须将其放入<code>SPARK_HOME/jars</code>文件夹中,然后Spark应该能够找到所需的所有配置单元类。</p>