我在斯卡拉使用Spark已经很长时间了。现在我第一次使用pyspark。这是Mac电脑上的
但当我运行pyspark时,它会转储
/Users/me/anaconda/bin/pyspark: line 24: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/load-spark-env.sh: No such file or directory
/Users/me/anaconda/bin/pyspark: line 77: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/spark-submit: No such file or directory
/Users/me/anaconda/bin/pyspark: line 77: exec: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/spark-submit: cannot execute: No such file
为什么它指向的是1.6.2版本,它似乎已经不存在了?Brew search apache spark确实表示存在这两个1.5版本。和1.6。pyspark 2.2.0不应该自动指向apachespark2.2.0安装吗?
步骤1:如果没有brew,请先在终端中使用以下命令安装brew
第2步:一旦有了brew,请运行下面的命令在Mac上安装java。
步骤3:安装Java后,运行以下命令在Mac上安装spark
第4步:键入
pyspark -version
你的问题有很多问题:
首先,PySpark不是一个附加包,而是Spark本身的一个基本组件;换句话说,在安装Spark时,默认情况下也会得到PySpark(即使您愿意,也无法避免)。所以,第2步应该足够了(甚至在这之前,PySpark应该可以在您的机器中使用,因为您已经在使用Spark了)。
步骤1是不必要的:PyPi中的Pyspark(即与
pip
或conda
一起安装)不包含完整的Pyspark功能;它只用于已经存在的集群中的Spark安装。从docs:基于这样的事实,正如您所说,您已经在使用Spark(通过Scala),您的问题似乎与升级有关。现在,如果您使用预先构建的Spark发行版,实际上您没有什么要安装的——您只需下载、解压缩和设置相关的环境变量(
SPARK_HOME
等)——请参阅我对"upgrading" Spark的回答,这实际上也适用于首次“安装”。现在安装
pyspark
的最简单方法是使用>;2.2版进行pip安装。如果您希望改用发行版(并希望与发行版一起使用
jupyter
),另一种方法是: https://blog.sicara.com/get-started-pyspark-jupyter-guide-tutorial-ae2fe84f594f相关问题 更多 >
编程相关推荐