我有一些Java的第三方数据库客户端库。我想通过
java_gateway.py
例如:创建客户机类(不是jdbc驱动程序!)可通过java网关提供给python客户端:
java_import(gateway.jvm, "org.mydatabase.MyDBClient")
不清楚在哪里将第三方库添加到jvm类路径。我试图添加到compute-classpath.sh,但这似乎不起作用:我得到
Py4jError: Trying to call a package
另外,当与配置单元进行比较时:配置单元jar文件不是通过compute-classpath.sh加载的,所以这让我怀疑。似乎还有其他一些机制正在设置jvm端类路径。
可以将外部jar作为参数添加到pyspark
使用spark submit时可以添加
--jars xxx.jar
或者设置环境变量
SPARK_CLASSPATH
your_spark_script.py
由pyspark API编写您可以在运行时使用Spark配置将路径添加到jar文件。
下面是一个例子:
有关详细信息,请参阅document。
相关问题 更多 >
编程相关推荐