黑松山资源网 Design By www.paidiu.com
前言,在pytorch中,当服务器上的gpu被占用时,很多时候我们想先用cpu调试下代码,那么就需要进行gpu和cpu的切换。
方法1:x.to(device)
把 device 作为一个可变参数,推荐使用argparse进行加载:
使用gpu时:
device='cuda' x.to(device) # x是一个tensor,传到cuda上去
使用cpu时:
device='cpu' x.to(device)
方法2:使用x.cuda()+CUDA_VISIBLE_DEVICES
很多贴子中说,使用x.cuda() 和x.to('cuda') 虽然是等效的,但是x.cuda() 的缺点是无法动态切换cpu。然而,其实配合命令行参数CUDA_VISIBLE_DEVICES 是可以进行切换的。
在服务器上创建一个python脚本 t.py:
import torch print(torch.cuda.device_count()) # 可用gpu数量 print(torch.cuda.is_available()) # 是否可用gpu
首先先看一下,正常运行的情况:
- 执行命令:python t.py
- 输出结果:因为服务器上有两个gpu,所以是我们想要的结果。
2
True
如果想要只使用某一块gpu,只需要在执行前加一个参数:
- CUDA_VISIBLE_DEVICES=0 python t.py,例如,我们要使用gpu 0
- 接下来看看输出什么:是的!程序中确实只可见了一块gpu~
1
True
下面,如果我们想使用cpu呢?
- CUDA_VISIBLE_DEVICES="" python t.py
- 输出结果:可以看到,虽然服务器上有2块cpu,通过我们设置执行参数,程序中也成功看不到了!
0
False
因此,回归正题,当我们使用x.cuda()进行分配gpu时,只需要使用torch.cuda.is_available()加一个判断即可,当想使用cpu的时候在执行程序的命令行参数进行控制:
if torch.cuda.is_available(): x= x.cuda()
黑松山资源网 Design By www.paidiu.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
黑松山资源网 Design By www.paidiu.com
暂无评论...
更新日志
2024年07月03日
2024年07月03日
- 原画壁纸及美图第255期,无水印可自取
- 群星.1991-宝丽金冬日浓情【宝丽金】【WAV+CUE】
- 胡杨林.2006-香水有毒【太格印象】【WAV+CUE】
- 陈晓东.2002-从未忘记2CD【环球】【WAV+CUE】
- 绝区零珂蕾妲阵容怎么搭配好 珂蕾妲队伍搭配攻略
- 绝区零暴击鸣徽有哪些 绝区零暴击鸣徽效果介绍
- 魔兽世界奥格瑞玛法师训练师在哪 奥格瑞玛法师训练师位置介绍
- 《艾尔登法环》dlc带电祷告位置介绍
- 《幻兽帕鲁》泰锋boss坐标位置介绍
- 《山河旅探》6月份更新内容介绍
- 群星.2012《高雄国际Hi-End音响大展纪念发烧金碟(最响宣言)》[WAV分轨].
- 黄宣2021-Beanstalk[否极泰来][WAV+CUE]
- 康康1999-催泪[阿尔法][WAV+CUE]
- 人总有崩溃的时候:你玩过哪些能治愈人心的游戏?
- SteamDeck新增最热玩榜单:综合衡量玩家数和时长