返回顶部
首页 > 资讯 > 精选 >pytorch如何实现ResNet结构
  • 916
分享到

pytorch如何实现ResNet结构

2023-06-15 02:06:49 916人浏览 八月长安
摘要

这篇文章主要介绍了PyTorch如何实现ResNet结构,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1.ResNet的创新现在重新稍微系统的介绍一下ResNet网络结构。

这篇文章主要介绍了PyTorch如何实现ResNet结构,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

1.ResNet的创新

现在重新稍微系统的介绍一下ResNet网络结构。 ResNet结构首先通过一个卷积层然后有一个池化层,然后通过一系列的残差结构,最后再通过一个平均池化下采样操作,以及一个全连接层的得到了一个输出。ResNet网络可以达到很深的层数的原因就是不断的堆叠残差结构而来的。

1)亮点

网络中的亮点 :

  • 超深的网络结构( 突破1000 层)

  • 提出residual 模块

  • 使用Batch NORMalization 加速训练( 丢弃dropout)

但是,一般来说,并不是一直的加深神经网络的结构就会得到一个更好的结果,一般太深的网络会出现过拟合的现象严重,可能还没有一些浅层网络要好。

pytorch如何实现ResNet结构

2)原因

其中有两个原因:

  • 梯度消失或梯度爆炸

当层数过多的时候,假设每一层的误差梯度都是一个小于1的数值,当进行方向传播的过程中,每向前传播一层,都要乘以一个小于1的误差梯度,当网络越来越深时,所成的小于1的系数也就越来越多,此时梯度便越趋近于0,这样梯度便会越来越小。这便会造成梯度消失的现象。

而当所成的误差梯度是一个大于1的系数,而随着网络层数的加深,梯度便会越来越大,这便会造成梯度爆炸的现象。

  • 退化问题(degradation problem)

当解决了梯度消失或者梯度爆炸的问题之后,其实网络的效果可能还是不尽如意,还可能有退化问题。为此,ResNet提出了残差结构来解决这个退化问题。 也正是因为有这个残差的结构,所以才可以搭建这么深的网络。

pytorch如何实现ResNet结构

2.ResNet的结构

残差结构如图所示

pytorch如何实现ResNet结构

作图是针对ResNet-18/34层浅层网络的结构,右图是ResNet-50/101/152层深层网络的结构,其中注意:主分支与shortcut 的输出特征矩阵shape。

一下表格为网络的一些主要参数

pytorch如何实现ResNet结构

可以看见,不同层数的网络结构其实框架是类似的,不同的至少堆叠的残差结构的数量。

1)浅层的残差结构

pytorch如何实现ResNet结构

需要注意,有些残差结构的ShortCut是实线,而有的是虚线,这两者是不同的。对于左图来说,ShortCut是实线,这表明输入与输出的shape是一样的,所以可以直接的进行相加。而对于右图来说,其输入的shape与输出的shape是不一样的,这时候需要调整步长stribe与kernel size来使得两条路(主分支与捷径分支)所处理好的shape是一模一样的。

2)深层的残差结构

pytorch如何实现ResNet结构

同样的,需要注意,主分支与shortcut 的输出特征矩阵shape必须相同,同样的通过步长来调整。

但是注意原论文中:

右侧虚线残差结构的主分支上、第一个1x1卷积层的步距是2,第二个3x3卷积层的步距是1.

而在pytorch官方实现的过程中是第一个1x1卷积层的步距是1,第二个3x3卷积层步距是2,这样能够在ImageNet的top1上提升大概0.5%的准确率。

所以在conv3_x,conv4_x,conv5_x中所对应的残差结构的第一层,都是指虚线的残差结构,其他的残差结构是实线的残差结构。

3)总结

对于每个大模块中的第一个残差结构,需要通过虚线分支来调整残差结构的输入与输出是同一个shape。此时使用了下采样的操作函数。
对于每个大模块中的其他剩余的残差结构,只需要通过实线分支来调整残差网络结构,因为其输出和输入本身就是同一个shape的。

对于第一个大模块的第一个残差结构,其第二个3x3的卷积中,步长是1的,而其他的三个大模块的步长均为2.
在每一个大模块的维度变换中,主要是第一个残差结构使得shape减半,而模块中其他的残差结构都是没有改变shape的。也真因为没有改变shape,所以这些残差结构才可以直接的通过实线进行相加。

3.Batch Normalization

Batch Normalization的目的是使我们的一批(Batch)特征矩阵feature map满足均值为0,方差为1的分布规律。

pytorch如何实现ResNet结构

其中:
μ,σ_2在正向传播过程中统计得到
γ,β在反向传播过程中训练得到

Batch Normalization是Google团队在2015年论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》提出的。通过该方法能够加速网络的收敛并提升准确率。

具体的相关原理见:Batch Normalization详解以及pytorch实验

4.参考代码

import torchimport torch.nn as nn# 分类数目num_class = 5# 各层数目resnet18_params = [2, 2, 2, 2]resnet34_params = [3, 4, 6, 3]resnet50_params = [3, 4, 6, 3]resnet101_params = [3, 4, 23, 3]resnet152_params = [3, 8, 36, 3]# 定义Conv1层def Conv1(in_planes, places, stride=2):    return nn.Sequential(        nn.Conv2d(in_channels=in_planes,out_channels=places,kernel_size=7,stride=stride,padding=3, bias=False),        nn.BatchNorm2d(places),        nn.ReLU(inplace=True),        nn.MaxPool2d(kernel_size=3, stride=2, padding=1)    )# 浅层的残差结构class BasicBlock(nn.Module):    def __init__(self,in_places,places, stride=1,downsampling=False, expansion = 1):        super(BasicBlock,self).__init__()        self.expansion = expansion        self.downsampling = downsampling        # torch.Size([1, 64, 56, 56]), stride = 1        # torch.Size([1, 128, 28, 28]), stride = 2        # torch.Size([1, 256, 14, 14]), stride = 2        # torch.Size([1, 512, 7, 7]), stride = 2        self.basicblock = nn.Sequential(            nn.Conv2d(in_channels=in_places, out_channels=places, kernel_size=3, stride=stride, padding=1, bias=False),            nn.BatchNorm2d(places),            nn.ReLU(inplace=True),            nn.Conv2d(in_channels=places, out_channels=places, kernel_size=3, stride=1, padding=1, bias=False),            nn.BatchNorm2d(places * self.expansion),        )        # torch.Size([1, 64, 56, 56])        # torch.Size([1, 128, 28, 28])        # torch.Size([1, 256, 14, 14])        # torch.Size([1, 512, 7, 7])        # 每个大模块的第一个残差结构需要改变步长        if self.downsampling:            self.downsample = nn.Sequential(                nn.Conv2d(in_channels=in_places, out_channels=places*self.expansion, kernel_size=1, stride=stride, bias=False),                nn.BatchNorm2d(places*self.expansion)            )        self.relu = nn.ReLU(inplace=True)    def forward(self, x):        # 实线分支        residual = x        out = self.basicblock(x)        # 虚线分支        if self.downsampling:            residual = self.downsample(x)        out += residual        out = self.relu(out)        return out# 深层的残差结构class Bottleneck(nn.Module):    # 注意:默认 downsampling=False    def __init__(self,in_places,places, stride=1,downsampling=False, expansion = 4):        super(Bottleneck,self).__init__()        self.expansion = expansion        self.downsampling = downsampling        self.bottleneck = nn.Sequential(            # torch.Size([1, 64, 56, 56]),stride=1            # torch.Size([1, 128, 56, 56]),stride=1            # torch.Size([1, 256, 28, 28]), stride=1            # torch.Size([1, 512, 14, 14]), stride=1            nn.Conv2d(in_channels=in_places,out_channels=places,kernel_size=1,stride=1, bias=False),            nn.BatchNorm2d(places),            nn.ReLU(inplace=True),            # torch.Size([1, 64, 56, 56]),stride=1            # torch.Size([1, 128, 28, 28]), stride=2            # torch.Size([1, 256, 14, 14]), stride=2            # torch.Size([1, 512, 7, 7]), stride=2            nn.Conv2d(in_channels=places, out_channels=places, kernel_size=3, stride=stride, padding=1, bias=False),            nn.BatchNorm2d(places),            nn.ReLU(inplace=True),            # torch.Size([1, 256, 56, 56]),stride=1            # torch.Size([1, 512, 28, 28]), stride=1            # torch.Size([1, 1024, 14, 14]), stride=1            # torch.Size([1, 2048, 7, 7]), stride=1            nn.Conv2d(in_channels=places, out_channels=places * self.expansion, kernel_size=1, stride=1, bias=False),            nn.BatchNorm2d(places * self.expansion),        )        # torch.Size([1, 256, 56, 56])        # torch.Size([1, 512, 28, 28])        # torch.Size([1, 1024, 14, 14])        # torch.Size([1, 2048, 7, 7])        if self.downsampling:            self.downsample = nn.Sequential(                nn.Conv2d(in_channels=in_places, out_channels=places*self.expansion, kernel_size=1, stride=stride, bias=False),                nn.BatchNorm2d(places*self.expansion)            )        self.relu = nn.ReLU(inplace=True)    def forward(self, x):        # 实线分支        residual = x        out = self.bottleneck(x)        # 虚线分支        if self.downsampling:            residual = self.downsample(x)        out += residual        out = self.relu(out)        return outclass ResNet(nn.Module):    def __init__(self,blocks, blockkinds, num_classes=num_class):        super(ResNet,self).__init__()        self.blockkinds = blockkinds        self.conv1 = Conv1(in_planes = 3, places= 64)        # 对应浅层网络结构        if self.blockkinds == BasicBlock:            self.expansion = 1            # 64 -> 64            self.layer1 = self.make_layer(in_places=64, places=64, block=blocks[0], stride=1)            # 64 -> 128            self.layer2 = self.make_layer(in_places=64, places=128, block=blocks[1], stride=2)            # 128 -> 256            self.layer3 = self.make_layer(in_places=128, places=256, block=blocks[2], stride=2)            # 256 -> 512            self.layer4 = self.make_layer(in_places=256, places=512, block=blocks[3], stride=2)            self.fc = nn.Linear(512, num_classes)        # 对应深层网络结构        if self.blockkinds == Bottleneck:            self.expansion = 4            # 64 -> 64            self.layer1 = self.make_layer(in_places = 64, places= 64, block=blocks[0], stride=1)            # 256 -> 128            self.layer2 = self.make_layer(in_places = 256,places=128, block=blocks[1], stride=2)            # 512 -> 256            self.layer3 = self.make_layer(in_places=512,places=256, block=blocks[2], stride=2)            # 1024 -> 512            self.layer4 = self.make_layer(in_places=1024,places=512, block=blocks[3], stride=2)            self.fc = nn.Linear(2048, num_classes)        self.avgpool = nn.AvgPool2d(7, stride=1)        # 初始化网络结构        for m in self.modules():            if isinstance(m, nn.Conv2d):                # 采用了何凯明的初始化方法                nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')            elif isinstance(m, nn.BatchNorm2d):                nn.init.constant_(m.weight, 1)                nn.init.constant_(m.bias, 0)    def make_layer(self, in_places, places, block, stride):        layers = []        # torch.Size([1, 64, 56, 56])  -> torch.Size([1, 256, 56, 56]), stride=1 故w,h不变        # torch.Size([1, 256, 56, 56]) -> torch.Size([1, 512, 28, 28]), stride=2 故w,h变        # torch.Size([1, 512, 28, 28]) -> torch.Size([1, 1024, 14, 14]),stride=2 故w,h变        # torch.Size([1, 1024, 14, 14]) -> torch.Size([1, 2048, 7, 7]), stride=2 故w,h变        # 此步需要通过虚线分支,downsampling=True        layers.append(self.blockkinds(in_places, places, stride, downsampling =True))        # torch.Size([1, 256, 56, 56]) -> torch.Size([1, 256, 56, 56])        # torch.Size([1, 512, 28, 28]) -> torch.Size([1, 512, 28, 28])        # torch.Size([1, 1024, 14, 14]) -> torch.Size([1, 1024, 14, 14])        # torch.Size([1, 2048, 7, 7]) -> torch.Size([1, 2048, 7, 7])        # print("places*self.expansion:", places*self.expansion)        # print("block:", block)        # 此步需要通过实线分支,downsampling=False, 每个大模块的第一个残差结构需要改变步长        for i in range(1, block):            layers.append(self.blockkinds(places*self.expansion, places))        return nn.Sequential(*layers)    def forward(self, x):        # conv1层        x = self.conv1(x)   # torch.Size([1, 64, 56, 56])        # conv2_x层        x = self.layer1(x)  # torch.Size([1, 256, 56, 56])        # conv3_x层        x = self.layer2(x)  # torch.Size([1, 512, 28, 28])        # conv4_x层        x = self.layer3(x)  # torch.Size([1, 1024, 14, 14])        # conv5_x层        x = self.layer4(x)  # torch.Size([1, 2048, 7, 7])        x = self.avgpool(x) # torch.Size([1, 2048, 1, 1]) / torch.Size([1, 512])        x = x.view(x.size(0), -1)   # torch.Size([1, 2048]) / torch.Size([1, 512])        x = self.fc(x)      # torch.Size([1, 5])        return xdef ResNet18():    return ResNet(resnet18_params, BasicBlock)def ResNet34():    return ResNet(resnet34_params, BasicBlock)def ResNet50():    return ResNet(resnet50_params, Bottleneck)def ResNet101():    return ResNet(resnet101_params, Bottleneck)def ResNet152():    return ResNet(resnet152_params, Bottleneck)if __name__=='__main__':    # model = torchvision.models.resnet50()    # 模型测试    # model = ResNet18()    # model = ResNet34()    # model = ResNet50()    # model = ResNet101()    model = ResNet152()    # print(model)    input = torch.randn(1, 3, 224, 224)    out = model(input)    print(out.shape)

pytorch的优点

1.PyTorch是相当简洁且高效快速的框架;2.设计追求最少的封装;3.设计符合人类思维,它让用户尽可能地专注于实现自己的想法;4.与google的Tensorflow类似,FAIR的支持足以确保PyTorch获得持续的开发更新;5.PyTorch作者亲自维护的论坛 供用户交流和求教问题6.入门简单

感谢你能够认真阅读完这篇文章,希望小编分享的“pytorch如何实现ResNet结构”这篇文章对大家有帮助,同时也希望大家多多支持编程网,关注编程网精选频道,更多相关知识等着你来学习!

--结束END--

本文标题: pytorch如何实现ResNet结构

本文链接: https://lsjlt.com/news/276916.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • pytorch如何实现ResNet结构
    这篇文章主要介绍了pytorch如何实现ResNet结构,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1.ResNet的创新现在重新稍微系统的介绍一下ResNet网络结构。 ...
    99+
    2023-06-15
  • pytorch实现ResNet结构的实例代码
    目录1.ResNet的创新1)亮点2)原因2.ResNet的结构1)浅层的残差结构2)深层的残差结构3)总结3.Batch Normalization4.参考代码1.ResNet的创...
    99+
    2024-04-02
  • 利用Pytorch实现ResNet网络构建及模型训练
    目录构建网络训练模型构建网络 ResNet由一系列堆叠的残差块组成,其主要作用是通过无限制地增加网络深度,从而使其更加强大。在建立ResNet模型之前,让我们先定义4个层,每个层由多...
    99+
    2023-05-17
    Pytorch ResNet构建网络模型训练 Pytorch ResNet
  • Pytorch实现ResNet网络之ResidualBlock残差块
    目录Residual Block实现一个残差块Residual Block ResNet中最重要的组件是残差块(residual block),也称为残差单元(residual un...
    99+
    2023-05-17
    Pytorch ResNet网络残差块 Pytorch ResNet Residual Block
  • PyTorch详解经典网络ResNet实现流程
    目录简述残差结构18-layer 实现在数据集训练简述 GoogleNet 和 VGG 等网络证明了,更深度的网络可以抽象出表达能力更强的特征,进而获得更强的分类能力。在深度网络中,...
    99+
    2024-04-02
  • pytorch如何打印网络结构
    要打印PyTorch网络结构,可以使用print函数或者torchsummary库来实现。 使用print函数来打印网络结构示例如下...
    99+
    2024-04-08
    pytorch
  • 基于pytorch怎么实现Resnet对本地数据集操作
    本文小编为大家详细介绍“基于pytorch怎么实现Resnet对本地数据集操作”,内容详细,步骤清晰,细节处理妥当,希望这篇“基于pytorch怎么实现Resnet对本地数据集操作”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来...
    99+
    2023-06-29
  • shell如何实现Dictionary结构
    这篇文章主要介绍了shell如何实现Dictionary结构,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。实现Dictionary结构hpu...
    99+
    2024-04-02
  • JavaScript如何实现栈结构
    小编给大家分享一下JavaScript如何实现栈结构,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!一、认识栈结构我们知道数组是一种常见的数据结构,并且可以在数组的任意位置插入和删除数据,但是有时候,我们为了实现某些功能,必...
    99+
    2023-06-21
  • 详解利用Pytorch实现ResNet网络之评估训练模型
    目录正文评估模型训练 ResNet50 模型正文 每个 batch 前清空梯度,否则会将不同 batch 的梯度累加在一块,导致模型参数错误。 然后我们将输入和目标张量都移动到所需的...
    99+
    2023-05-16
    Pytorch ResNet网络 Pytorch ResNet
  • JavaScript如何实现队列结构
    这篇文章主要讲解了“JavaScript如何实现队列结构”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“JavaScript如何实现队列结构”吧!一、认识队列前面的博客已经讲了受限的数据结构—...
    99+
    2023-06-21
  • Go Struct结构体如何实现
    本文小编为大家详细介绍“Go Struct结构体如何实现”,内容详细,步骤清晰,细节处理妥当,希望这篇“Go Struct结构体如何实现”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。什么是结构...
    99+
    2023-07-05
  • mysql索引结构如何实现
    mysql索引结构由b+树和哈希表组成,它们共同实现数据的高效检索和更新:1. b+树通过多级、平衡的结构按顺序存储数据,提供快速的数据访问;2. 哈希表使用哈希函数快速查找索引信息。 ...
    99+
    2024-06-14
    mysql mysql索引 键值对
  • 如何使用JavaScript实现树结构
    这篇文章主要为大家展示了“如何使用JavaScript实现树结构”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何使用JavaScript实现树结构”这篇文章吧...
    99+
    2024-04-02
  • JavaScript中如何实现队列结构
    小编给大家分享一下JavaScript中如何实现队列结构,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!JavaScript可以做什么1.可以使网页具有交互性,例如...
    99+
    2023-06-15
  • MySQL如何实现查询树结构
    这篇文章给大家分享的是有关MySQL如何实现查询树结构的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。MySQL 查询树结构1. 关于树结构此类结构的数据,通常需要表结构中含有id 、parentId等自关联字段,...
    99+
    2023-06-22
  • Golang如何实现Json转结构体
    这篇文章主要讲解了“Golang如何实现Json转结构体”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Golang如何实现Json转结构体”吧!请求Zabbix API,通过itemid获取...
    99+
    2023-07-05
  • C++如何实现BitMap数据结构
    目录一、BitMap位图二、C++实现分治,分布式。BitMap(位图)及其升级版bloom filter是处理海量数据常用的方法,这里先介绍BitMap概念及其c++实现。 一、B...
    99+
    2024-04-02
  • 纯css如何实现树形结构
    这篇文章将为大家详细讲解有关纯css如何实现树形结构,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。纯css实现属性结构css实现属性结构的思路是利用伪类实现树形结构连接线,如果想实现点击展开和收缩以及复选...
    99+
    2023-06-08
  • Golang如何实现数据结构Stack
    本文小编为大家详细介绍“Golang如何实现数据结构Stack”,内容详细,步骤清晰,细节处理妥当,希望这篇“Golang如何实现数据结构Stack”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。介绍Stack在计...
    99+
    2023-07-06
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作