我使用的是spark 1.4.0-rc2,所以我可以将python 3与spark一起使用。如果我将export PYSPARK_PYTHON=python3
添加到.bashrc文件中,我可以使用python 3交互运行spark。但是,如果我想在本地模式下运行一个独立程序,我会得到一个错误:
Exception: Python in worker has different version 3.4 than that in driver 2.7, PySpark cannot run with different minor versions
如何为驱动程序指定python的版本?设置export PYSPARK_DRIVER_PYTHON=python3
无效。
您需要确保正在启动的独立项目是用Python 3启动的。如果您通过spark submit提交您的独立程序,那么它应该可以正常工作,但是如果您使用python启动它,请确保使用python3启动您的应用程序。
另外,请确保您已经在
./conf/spark-env.sh
中设置了env变量(如果它不存在,您可以使用spark-env.sh.template
作为基础)对我有帮助:
把
PYSPARK_PYTHON=python3
和PYSPARK_DRIVER_PYTHON=python3
都设置为python3对我很有用。我在我的.bashrc中使用了export。最后,这些是我创建的变量:我还按照本教程的要求在Ipython3笔记本中运行: http://ramhiser.com/2015/02/01/configuring-ipython-notebook-support-for-pyspark/
相关问题 更多 >
编程相关推荐