搭建深度学习网络时节约GPU显存的技巧

发布时间:2024-12-01 08:54

如何使用GPU加速深度学习训练 #生活技巧# #学习技巧# #深度学习技巧#

两只蜡笔的小新 已于 2024-02-01 10:25:45 修改

于 2022-08-10 11:12:43 首次发布

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

前言

在搭建网络的时候,发现relu函数用几种不同的用法,对于不同的用法,并不会改变可训练参数的数量,但是所占用的计算机资源却不同,但是各有利弊,相面详细介绍。

可以对比这篇文章一起看,实在这篇文章基础上进行修改的。

pytorch从零实现resnet_两只蜡笔的小新的博客-CSDN博客_pytorch使用resnet

如果手头里面没有好用的GPU服务器:推荐一下下面这个链接:

注册 - 极链AI云平台

一、残差块的不同实现

【版本1】

def BasicBlock(in_ch,out_ch,stride):

return nn.Sequential(

nn.Conv2d(in_ch, out_ch, 3, stride, padding=1, bias=False),

nn.BatchNorm2d(out_ch),

nn.ReLU(inplace=True),

nn.Conv2d(out_ch, out_ch, 3, stride=1, padding=1, bias=False),

nn.BatchNorm2d(out_ch),

nn.ReLU(inplace=True),

)

class ResidualBlock_old(nn.Module):

def __init__(self, in_ch, out_ch, stride=1, shortcut=None):

super(ResidualBlock_old, self).__init__()

self.BasicBlock = BasicBlock(in_ch,out_ch,stride)

self.downsample = shortcut

def forward(self, x):

out = self.BasicBlock(x)

residual = x if

网址:搭建深度学习网络时节约GPU显存的技巧 https://www.yuejiaxmz.com/news/view/331993

相关内容

GPU加速深度学习
把显存用在刀刃上!17 种 pytorch 节约显存技巧
节省显存新思路,在 PyTorch 里使用 2 bit 激活压缩训练神经网络
IBM推出“深度学习即服务”:可大幅节省AI训练时间
大规模神经网络最新文献综述:训练高效DNN、节省内存使用、优化器设计
【深度学习】深度学习语音识别算法的详细解析
一张图看懂AI、机器学习和深度学习的区别
网络学习的心得体会
基于深度学习的盲人行路辅助软件设计
网络学习心得体会范文

随便看看