随着新的spark1.3的发布,我很高兴尝试JDBC函数(在Python中)。但是,我认为帮助不是可选的,因为我遇到了一个错误:
以下是我所做的:
从一个典型的鳞片下的火花开始
SPARK_CLASSPATH=/jdbc_path/some-jdbc-driver.jar bin/spark-shell
结果在信息中显示:使用--driver-class-path
(我接着说)
在PySpark-REPEL中,相关的包被导入并使用
df2 = sqlCtx.load("jdbc", url="jdbc:ncluster://serveraddress:2406/database?user=myid&password=mypass", driver="com.asterdata.ncluster.Driver", dbtable="mytable")
但是错误消息一直显示spark_home/jdbc没有这样的文件。在
我可以知道:
不要设置SPARK\u类路径(至少在SPARK 1.5.2中它说它已弃用),试着跟随this answer并编辑
conf/spark-defaults.conf
在下面添加两行。在我不需要使用
driver-class-path
,因为默认情况下,当Spark启动时将加载jar。在您可以转到位于http://localhost:4040/environment/的Spark environment UI来检查是否包含jar。
我也遇到过同样的问题(2),试试:
告诉我它是否有效。在我的例子中,它是有效的,但我仍然无法连接到我的数据库,因为spark无法识别我的jar文件。听起来很糟糕,但不知怎么回事。在
如果你能接通,请告诉我。在
相关问题 更多 >
编程相关推荐