java Spark/Hdfs/Hdfsclient兼容性
我正在运行一个基于hdfs集群的hdfs版本2.9.1。 Spark(根据hdfs客户机2.9.1构建)和使用hdfs客户机2.9.1的独立scala/java程序也使用该集群
我想逐步升级到hdfs 3的设置<没有太多的破坏。 我还没有找到一个关于hdfs服务器和hdfs客户端之间兼容性的可接近的指南
是否可以先升级hdfs客户端,然后再升级hdfs文件系统? 还是反过来
你可以在下面搜索框中键入要查询的问题!
我正在运行一个基于hdfs集群的hdfs版本2.9.1。 Spark(根据hdfs客户机2.9.1构建)和使用hdfs客户机2.9.1的独立scala/java程序也使用该集群
我想逐步升级到hdfs 3的设置<没有太多的破坏。 我还没有找到一个关于hdfs服务器和hdfs客户端之间兼容性的可接近的指南
是否可以先升级hdfs客户端,然后再升级hdfs文件系统? 还是反过来
# 1 楼答案
这取决于您使用的API。 Hadoop类和接口用注释进行分类,注释可以是{}、{}、{}、{}
Stable
API使用起来是安全的,因为在hadoop4.0.02之前不希望删除它