安装PySpark
我正在尝试安装PySpark,并按照这个说明进行操作。我在安装了Spark的集群节点上,从命令行运行以下命令:
$ sbt/sbt assembly
结果出现了以下错误:
-bash: sbt/sbt: No such file or directory
然后我尝试了下一个命令:
$ ./bin/pyspark
结果又出现了这个错误:
-bash: ./bin/pyspark: No such file or directory
我感觉我好像漏掉了什么基本的东西。到底缺少了什么呢?我已经安装了Spark,并且可以通过以下命令访问它:
$ spark-shell
我在这个节点上有Python,并且可以通过以下命令打开Python:
$ python
2 个回答
2
SBT是用来构建Scala项目的工具。如果你刚接触Scala、SBT或者Spark,那你可能在走一些比较复杂的路。
其实“安装”Spark最简单的方法就是直接下载Spark(我个人推荐Spark 1.6.1)。下载后,把文件解压到你想要安装Spark的文件夹里,比如说C:/spark-folder(在Windows上)或者/home/usr/local/spark-folder(在Ubuntu上)。
解压完后,你需要设置一下环境变量。这个步骤根据你使用的操作系统不同而有所不同,不过其实并不是运行Spark(比如pyspark)所必需的。
如果你不想设置环境变量,或者不知道怎么设置,另一种简单的方法就是打开一个终端窗口,进入到你刚才解压的文件夹,输入cd C:/spark-folder(在Windows上)或者cd /home/usr/local/spark-folder(在Ubuntu上),然后输入
./bin/pyspark
这样Spark就可以运行了。