当前位置:首页 » 《随便一记》 » 正文

在服务器上指定GPU跑代码

9 人参与  2023年05月06日 13:05  分类 : 《随便一记》  评论

点击全文阅读


一、准备工作

查看GPU状态和信息,找到空闲的GPU:

nvidia-smi 

二、指定单GPU

从图中 Processes 表格我们可以发现0、1、2号GPU均是可以利用的。于是我们可以在python文件中加入以下代码,表示使用0号GPU:

import osos.environ["CUDA_VISIBLE_DEVICES"] = "0"  # 使用0号GPU

或者可以在命令行窗口处输入,表示使用1号GPU运行代码:

CUDA_VISIBLE_DEVICES=1 python your_model.py # 使用1号GPU运行代码

再或者使用 torch.cuda.set_device()函数指定gpu使用编号:

import torchtorch.cuda.set_device(2) # 使用2号GPU

三、指定多GPU

若此时所有GPU都是空闲的,那么最简单的做法是:

import torchmodel = torch.nn.DataParallel(model) # 使用默认所有存在的GPU

而假如像上文所述只有0、1、2号显卡空闲,那么可以使用以下代码指定多个GPU:

注意:无论是指定单个GPU还是多个GPU,设定 os 的语句需要放在 import torch 语句之前,否则指定GPU的操作可能无法生效

import osos.environ["CUDA_VISIBLE_DEVICES"] = ','.join(map(str, [0,1,2])) # 一般在程序开头设置import torchmodel = torch.nn.DataParallel(model) # 等价于os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2'

可以看到两者相比,后者其实就是限定了GPU范围。

或者直接使用更简便的方法:

import torchtorch.nn.DataParallel(model, device_ids=[0, 1, 2]) # 使用0、1、2号GPU

四、补充

为GPU设置随机种子

import torchtorch.cuda.manual_seed(seed)torch.cuda.manual_seed_all(seed)


点击全文阅读


本文链接:http://m.zhangshiyu.com/post/61119.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1