我将预处理的图像数据放在numpy数组中,并且我的脚本可以通过feeding numpy array在单个GPU上正常工作。据我所知,我们需要为多个GPU培训创建MinibatchSource。我正在检查这个示例(ConvNet_CIFAR10_DataAug_Distributed.py)以进行分布式培训,但是它使用*_map.txt
,这基本上是指向图像文件(例如png)的路径列表。我想知道最好的方法是从numpy数组创建MinibatchSource,而不是将numpy数组转换回png文件。在
您可以创建复合读取器,将多个图像反序列化器组合到一个源中。首先,您需要创建两个地图文件(带有虚拟标签)。一个将包含所有输入图像,另一个将包含相应的目标图像。下面的代码是一个最小的实现,假设文件名为
map1.txt
和map2.txt
相关问题 更多 >
编程相关推荐