DDP是否总是在多个GPU上拆分一个型号?我是pytorch的新手。因为我想增加批量,而且模型太重,所以我收到反馈,使用pytorch DP(DataParallel)和DDP(Distributed Data Parallel)可以产生很好 ...2024-09-30 已阅读: n次