有 Java 编程相关的问题?

你可以在下面搜索框中键入要查询的问题!

java Spark/Hdfs/Hdfsclient兼容性

我正在运行一个基于hdfs集群的hdfs版本2.9.1。 Spark(根据hdfs客户机2.9.1构建)和使用hdfs客户机2.9.1的独立scala/java程序也使用该集群

我想逐步升级到hdfs 3的设置<没有太多的破坏。 我还没有找到一个关于hdfs服务器和hdfs客户端之间兼容性的可接近的指南

是否可以先升级hdfs客户端,然后再升级hdfs文件系统? 还是反过来


共 (1) 个答案

  1. # 1 楼答案

    这取决于您使用的API。 Hadoop类和接口用注释进行分类,注释可以是{}、{}、{}、{}

    StableAPI使用起来是安全的,因为在hadoop4.0.02之前不希望删除它