本篇文章给大家分享的是有关怎么在PyTorch中切换 cpu和gpu,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。方法1:x.to(device)把 device 作为一个可变
本篇文章给大家分享的是有关怎么在PyTorch中切换 cpu和gpu,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
方法1:x.to(device)
把 device 作为一个可变参数,推荐使用argparse进行加载:
使用gpu时:
device='cuda'x.to(device) # x是一个tensor,传到cuda上去
使用cpu时:
device='cpu'x.to(device)
很多贴子中说,使用x.cuda() 和x.to('cuda') 虽然是等效的,但是x.cuda() 的缺点是无法动态切换cpu。然而,其实配合命令行参数CUDA_VISIBLE_DEVICES 是可以进行切换的。
import torchprint(torch.cuda.device_count()) # 可用gpu数量print(torch.cuda.is_available()) # 是否可用gpu
首先先看一下,正常运行的情况:
2
True
如果想要只使用某一块gpu,只需要在执行前加一个参数:
CUDA_VISIBLE_DEVICES=0 python t.py,例如,我们要使用gpu 0
接下来看看输出什么:是的!程序中确实只可见了一块gpu~
1
True
下面,如果我们想使用cpu呢?
CUDA_VISIBLE_DEVICES="" python t.py
输出结果:可以看到,虽然服务器上有2块cpu,通过我们设置执行参数,程序中也成功看不到了!
0
False
因此,回归正题,当我们使用x.cuda()进行分配gpu时,只需要使用torch.cuda.is_available()加一个判断即可,当想使用cpu的时候在执行程序的命令行参数进行控制:
if torch.cuda.is_available(): x= x.cuda()
以上就是怎么在Pytorch中切换 cpu和gpu,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注编程网精选频道。
--结束END--
本文标题: 怎么在Pytorch中切换 cpu和gpu
本文链接: https://lsjlt.com/news/247694.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0