当前位置:首页 » 《随便一记》 » 正文

Pytorch运行过程中解决出现内存不足的问题

19 人参与  2023年05月05日 14:33  分类 : 《随便一记》  评论

点击全文阅读


1. 前提

利用Transformer模型进行O3浓度的反演

2. 问题

2.1 速度慢

一开始模型是在CPU上面跑的,为了加快速度,我改成了在GPU上跑
方法如下:
1、验证pytorch是否存在GPU版本
在Pycharm命令行输入

import torchprint(torch.cuda.is_available)# 若输出为True,则存在GPU版本# 若输出为False,则不存在GPU版本

我的输出为True,说明pytorch是存在GPU版本的
2、将模型从CPU版本转换到GPU版本

声明使用GPU(指定具体的卡)
PS:torch.device()是装torch.Tensor的一个空间。
device=torch.device('cuda' if torch.cuda.is_available() else 'cpu')# 'cuda' 这里如果没有指定具体的卡号,系统默认cuda:0device = torch.device('cuda:2') # 使用2号卡
将模型(model)加载到GPU上
model = Transformer()#例子中,采用Transformer模型model.to(device)
将数据和标签放到GPU上【注意!什么数据可以被放入GPU-Tensor类型的数据】
# 只有Tensor类型的数据可以放入GPU中# 可以一个个【batch_size】进行转换inputs = inputs.to(device)labels = labels.to(device)

如果结果还是显示你是在CPU上进行训练,要不就是模型没有加进去,要不就是数据没有加进去

2.2 内存不足

在使用CPU时,出现了内存不足的情况

RuntimeError: [enforce fail at C:\cb\pytorch_1000000000000\work\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 280410627200 bytes.

在使用GPU时,出现了内存不足的情况

torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 261.15 GiB (GPU 0; 8.00 GiB total capacity; 487.30 MiB already allocated; 5.71 GiB free; 506.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try sett

我的模型在训练的时候没有问题,在进行预测的时候,总是出现内存不足
(1)一开始我以为是batch_size大小的问题,在从128更改到4后,发现依旧存在问题,这说明不是batch_size大小的问题。
(2)然后,我猜测是反演过程的问题
我在进行模型反演的过程中,直接将全部数据输入到模型model中(大概有10万行),为了验证这个问题,我添加了一个for循环,一个一个数据的反演
在这里插入图片描述
问题解决!


学习链接:

pytorch 中判断和指定模型和数据在GPU或CPU上–有用Pytorch | GPU | 将代码加载到GPU上运行pytorch中cuda out of memory问题

点击全文阅读


本文链接:http://m.zhangshiyu.com/post/60919.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1