> 文章列表 > PyTorch使用cpu与gpu之间模型相互加载调用

PyTorch使用cpu与gpu之间模型相互加载调用

PyTorch使用cpu与gpu之间模型相互加载调用

目录

1、GPU ----> CPU 

2、gpu 1 —> gpu 0

 3、CPU ----> GPU


我们在使用pytorch的过程,经常会需要加载模型参数,但是pytorch当中,GPU和CPU模型下加载的参数的类型是不同的,不能互相直接调用,下面分情况进行操作说明。

1、GPU ----> CPU 

torch.load(PATH, map_location="cpu")

2、gpu 1 —> gpu 0

模型在GPU1上保存,运行在GPU0和1上

torch.load(PATH, map_location={'cuda:1':'cuda:0'})

 3、CPU ----> GPU

torch.load(PATH, map_location="cuda:0")