通用递归神经网络的rwth可扩展训练框架
returnn的Python项目详细描述
GitHub repository。 RETURNN paper 2016, RETURNN paper 2018。
returnn-rwth通用递归神经网络可扩展训练框架, 是一种基于theano/tensorflow的现代递归神经网络结构的实现。 针对多gpu环境下递归神经网络的快速可靠训练问题,对其进行了优化。
功能包括:
- 前馈神经网络的小批量训练
- 基于序列分块的递归神经网络批训练
- 长短期记忆递归神经网络 包括我们自己的快速cuda内核
- 多维LSTM(仅GPU,没有CPU版本)
- 大型数据集的内存管理
- 跨多个设备的工作分配
- 灵活快速的体系结构,允许各种编码器注意力解码器模型
见documentation。 见basic usage 还有technological overview。
Here is the video recording of a RETURNN overview talk (slides, exercise sheet; 由易趣主办)。
有many example demos 对人工生成的数据起作用, 也就是说,他们应该按原样工作。
有some real-world examples 例如在交换机或librispeech语料库上进行语音识别的设置。
一些针对其他框架的基准设置 可以找到here。 结果在RETURNN paper 2016中。 lstm内核与cudnn和其他tensorflow内核的性能基准 在TensorFlow LSTM benchmark中。
还有a wiki。 也可以在 StackOverflow using the RETURNN tag。