Pythorch连接向后损失()和优化器.step()optimizer和{}之间的显式连接在哪里?在 优化器如何知道在没有类似这样的调用的情况下从何处获得损失的梯度?在 -更多上下文- 当我最小化损失时,我不必将渐变传递给优化器。在 loss.back ...2024-10-01 已阅读: n次