Pytorch distributed 多卡并行载入模型
前面的博客介绍了pytorch多卡distribute的方法,这次来介绍下如何载入模型。
目前没有找到官方的distribute 载入模型的方式,所以采用如下方式。
大部分情况下,我们在测试时不需要多卡并行计算。所以,我在测试时只使用单卡。
from collections import OrderedDict
device = torch.device("cuda")
model = DGCNN(args).to(device)
state_dict = torch.load