1、
这句话的意思是:期望张量的后端处理是在cpu上,但是实际是在cuda上。排查代码发现,数据还在cpu上,但是模型已经转到cuda上,所以可以通过把数据转到cuda上解决。
解决代码:
tensor.to("cuda")
2、
解决方法:减小batch size的大小或减小图片的尺寸
3、
原始的代码如下:
torch.save(model.module.state_dict(), os.path.join(model_prefix, '{}-model.pth'.format(epoch)))
原因:因为只有一块GPU,以上代码是多GPU使用的
解决方法:改为以下单GPU代码:
meta = {}
checkpoint = {"meta": meta, "state_dict": weights_to_cpu(model.state_dict())}
if optimizer is not None:
checkpoint["optimizer"] = optimizer.state_dict()
torch.save(checkpoint, os.path.join(model_prefix, '{}-model.pth'.format(epoch)))





![BUUCTF [GXYCTF2019]BabyUpload 1详解(.htaccess配置文件特性)](https://img-blog.csdnimg.cn/img_convert/b8f9c756a0bbff74a6e0622fa5212c2a.png)











![P8649 [蓝桥杯 2017 省 B] k 倍区间(前缀和+优化(桶分类))](https://img-blog.csdnimg.cn/direct/6c7e11ee7f9d4e41971267bf2b3c7d55.png)
![[React] 2023年最新面试题](https://img-blog.csdnimg.cn/direct/3c939bc17f3249e19ad185c98eecdae1.png)
