我已经按照以下步骤在intellij中设置pyspark
,从这个问题开始:
Write and run pyspark in IntelliJ IDEA
下面是尝试运行的简单代码:
#!/usr/bin/env python
from pyspark import *
def p(msg): print("%s\n" %repr(msg))
import numpy as np
a = np.array([[1,2,3], [4,5,6]])
p(a)
import os
sc = SparkContext("local","ptest",conf=SparkConf().setAppName("x"))
ardd = sc.parallelize(a)
p(ardd.collect())
下面是提交代码的结果
^{pr2}$然而,我真的不明白这是如何实现的:为了在Spark
中运行,代码需要打包并通过spark-submit
提交。在
所以我怀疑另一个问题是否真的解决了通过Intellij向spark提交pyspark代码的问题。在
有没有办法将pyspark
代码提交给pyspark
?事实上是的
spark-submit myPysparkCode.py
pyspark
可执行文件本身已被弃用,因为Spark 1.0
。有人用这个吗?在
在我的例子中,来自其他Q&AWrite and run pyspark in IntelliJ IDEA的变量设置覆盖了大多数必需的设置,但不是全部。我试了很多次。在
仅在添加:
对
run configuration
来说,pyspark
终于安静下来并成功了。在相关问题 更多 >
编程相关推荐