我想从Jupyter笔记本运行pySpark。我下载并安装了有Juptyer的Python。我创建了以下行
from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
我得到以下错误
^{pr2}$根据Stackoverflowimporting pyspark in python shell中的答案,我尝试添加以下指向spark/python目录的环境变量PYTHONPATH
但这没用
在Jupyter笔记本电脑-Windows中运行pySpark
JAVA8:https://www.guru99.com/install-java.html
阿纳康达:https://www.anaconda.com/distribution/
jupyter中的Pyspark:https://changhsinlee.com/install-pyspark-windows-jupyter/
2018版
在Windows 10上安装PYSPARK 带水蟒导航仪的JUPYTER笔记本电脑
第1步
下载软件包
1)spark-2.2.0-bin-hadoop2.7.tgzDownload
2)java jdk 8版本Download
3)水蟒5.2Download
4)scala-2.12.6.msiDownload
5)hadoop v2.7.1Download
第2步
在C:/驱动器中创建SPARK文件夹,并将所有内容放入其中 It will look like this
注意:在安装SCALA的过程中,在SPARK文件夹中给出SCALA的路径
第3步
现在设置新的WINDOWS环境变量
HADOOP_HOME=C:\spark\hadoop
JAVA_HOME=C:\Program Files\Java\jdk1.8.0_151
SCALA_HOME=C:\spark\scala\bin
SPARK_HOME=C:\spark\spark\bin
PYSPARK_PYTHON=C:\Users\user\Anaconda3\python.exe
PYSPARK_DRIVER_PYTHON=C:\Users\user\Anaconda3\Scripts\jupyter.exe
PYSPARK_DRIVER_PYTHON_OPTS=notebook
现在选择火花路径:
单击“编辑并添加新内容”
将“C:\spark\spark\bin”添加到变量“Path”窗口中
第4步
你的浏览器会弹出Juypter本地主机
第5步
检查pyspark是否正常工作!在
键入简单代码并运行它
这对我很有效:
要验证:
^{pr2}$相关问题 更多 >
编程相关推荐