我正在使用spark 1.3.1。
当spark运行在纱线群集模式时,我必须声明sc吗?我可以在spark python shell中运行相同的python程序。
这就是我提交工作的方式:
/bin/spark-submit --master yarn-cluster test.py --conf conf/spark-defaults.conf
在spark默认值中,我确实声明了spark.yarn.jar
在哪里,还要检查spark用户spark.yarn.jar
和/user/admin
在哪里的权限,以使所有用户都有读写执行。
在我的test.py
程序中,我有from pyspark.sql import SQLContext
,第一行是
sqlctx=SQLContext(sc)
错误是
NameError: name 'sc' is not defined
在那条线上。
知道吗?
这就是我的工作:
希望这有帮助。
sc
是在spark-shell
中创建的帮助器值,但不是用spark-submit
自动创建的。你必须实例化你自己的SparkContext
并使用它相关问题 更多 >
编程相关推荐