我正在研究如何从R/python建立一个jdbcsark连接。我知道pyspark
和{
我应该用这个吗org.apache.hive.希维德里弗就像我建立一个配置单元连接一样,因为Hive和sparksql通过thrift似乎紧密相连?我是否应该将配置单元连接(使用HiveServer2端口)所需的hadoop公共依赖项替换为特定于spark的依赖项(使用时配置单元服务器2.thrift.http.port)? 在
另外,由于大多数连接功能似乎都在利用配置单元,那么什么是导致Spark SQL被用作查询引擎而不是配置单元的关键因素?在
结果我需要使用的URL与ambari中列出的配置单元数据库主机URL不匹配。我在一个关于如何连接(具体到我的集群)的示例中遇到了正确的URL。有了正确的URL,我就可以使用HiveDriver建立连接了。在
相关问题 更多 >
编程相关推荐