2024-10-01 02:31:45 发布
网友
请社区总结一下Python SDK在Google数据流模板上的局限性:
如果我错了,请纠正我。如果我遗漏了什么,请告诉我
根据Apache Beam Python SDK documentation,BigQuery读取连接器支持ValueProvider对象,因此应该可以在BigQuery源上使用运行时参数
BigTable connector尚未提供读取/源代码支持,目前,只能使用BigTable作为写入输出;但是,ValueProvider参数还不受支持
Pub/Sub connector仅在流式管道中支持源和汇。与BigTable连接器相同,ValueProvider参数尚不受支持
关于NestedValueProvider,是的,如Dataflow templates documentation中所述,用于Python的Apache Beam SDK不支持NestedValueProvider
您可以随时检查Apache Beam release notes以保持最新功能的更新,或者跟进Jira上的相关功能请求,例如,已经有一个open request for DynamicDestinations implementation for BigtableIO,尽管它是针对Java SDK的
根据Apache Beam Python SDK documentation,BigQuery读取连接器支持ValueProvider对象,因此应该可以在BigQuery源上使用运行时参数
BigTable connector尚未提供读取/源代码支持,目前,只能使用BigTable作为写入输出;但是,ValueProvider参数还不受支持
Pub/Sub connector仅在流式管道中支持源和汇。与BigTable连接器相同,ValueProvider参数尚不受支持
关于NestedValueProvider,是的,如Dataflow templates documentation中所述,用于Python的Apache Beam SDK不支持NestedValueProvider
您可以随时检查Apache Beam release notes以保持最新功能的更新,或者跟进Jira上的相关功能请求,例如,已经有一个open request for DynamicDestinations implementation for BigtableIO,尽管它是针对Java SDK的
相关问题 更多 >
编程相关推荐