JDBC火花连接

2024-10-03 23:31:04 发布

您现在位置:Python中文网/ 问答频道 /正文

我正在研究如何从R/python建立一个jdbcsark连接。我知道pyspark和{}都是可用的,但它们似乎更适合于交互式分析,特别是因为它们为用户保留了集群资源。我在想一个更类似于Tableau ODBC Spark connection的东西——一个更轻量级(据我所知)支持简单随机访问的东西。{我觉得这是可能的。在

我应该用这个吗org.apache.hive.希维德里弗就像我建立一个配置单元连接一样,因为Hive和sparksql通过thrift似乎紧密相连?我是否应该将配置单元连接(使用HiveServer2端口)所需的hadoop公共依赖项替换为特定于spark的依赖项(使用时配置单元服务器2.thrift.http.port)? 在

另外,由于大多数连接功能似乎都在利用配置单元,那么什么是导致Spark SQL被用作查询引擎而不是配置单元的关键因素?在


Tags: 用户orgapache集群资源connectionthriftspark
1条回答
网友
1楼 · 发布于 2024-10-03 23:31:04

结果我需要使用的URL与ambari中列出的配置单元数据库主机URL不匹配。我在一个关于如何连接(具体到我的集群)的示例中遇到了正确的URL。有了正确的URL,我就可以使用HiveDriver建立连接了。在

相关问题 更多 >