用于多个MapReduce步骤的Python工作流引擎

2024-09-29 23:31:05 发布

您现在位置:Python中文网/ 问答频道 /正文

SO的优秀员工

我需要通过不同的步骤来处理一组(庞大的)数据;每一步都可能涉及mapReduce(使用Disco)、通用分布式处理(使用Celery)或服务器上的一些简单处理。我正在寻找一个可以帮助管理这样一个工作流的工作流引擎/库/框架。在

我已经研究了许多选项,spiff workflow似乎是最灵活的,但它似乎不支持状态转换的操作,而且是单线程的(因此我不确定如何处理并行网关)。在

请就管理此类工作流程/工作的方法/工具提出建议。如果有一个框架附带了一个监控工具(最好是基于web或者可以与Pyramid集成)的框架,那就更好了。在

提前谢谢


Tags: 工具数据引擎服务器框架so选项分布式

热门问题