返回顶部
首页 > 资讯 > 精选 >F.conv2d pytorch卷积计算方式是什么
  • 577
分享到

F.conv2d pytorch卷积计算方式是什么

2023-07-05 04:07:39 577人浏览 八月长安
摘要

这篇文章主要讲解了“F.conv2d PyTorch卷积计算方式是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“F.conv2d pytorch卷积计算方式是什么”吧

这篇文章主要讲解了“F.conv2d PyTorch卷积计算方式是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“F.conv2d pytorch卷积计算方式是什么”吧!

    F.conv2d pytorch卷积计算

    Pytorch里一般小写的都是函数式的接口,相应的大写的是类式接口。

    函数式的更加low-level一些,如果不需要做特别复杂的配置只需要用类式接口就够了。

    可以这样理解

    nn.Conved是2D卷积层,而F.conv2d是2D卷积操作。

    import torchfrom torch.nn import functional as F """手动定义卷积核(weight)和偏置"""w = torch.rand(16, 3, 5, 5)  # 16种3通道的5乘5卷积核b = torch.rand(16)  # 和卷积核种类数保持一致(不同通道共用一个bias) """定义输入样本"""x = torch.randn(1, 3, 28, 28)  # 1张3通道的28乘28的图像 """2D卷积得到输出"""out = F.conv2d(x, w, b, stride=1, padding=1)  # 步长为1,外加1圈padding,即上下左右各补了1圈的0,print(out.shape) out = F.conv2d(x, w, b, stride=2, padding=2)  # 步长为2,外加2圈paddingprint(out.shape)out = F.conv2d(x, w)  # 步长为1,默认不padding, 不够的舍弃,所以对于28*28的图片来说,算完之后变成了24*24print(out.shape)

    在DSSINet发现又用到了空洞卷积dilated convolution

    mu1 = F.conv2d(img1, window , padding=padd, dilation=dilation, groups=channel)

    Dilated/Atrous convolution或者是convolution with holes从字面上就很好理解,是在标准的convolution map里注入空洞,以此来增加感受野reception field。

    相比原来的正常卷积,空洞卷积多了一个超参数dilation rate,指的是kernel的间隔数量(正常的卷积是dilation rate=1)

    正常图像的卷积为

    F.conv2d pytorch卷积计算方式是什么

    空洞卷积为

    F.conv2d pytorch卷积计算方式是什么

    现在我们再来看下卷积本身,并了解他背后的设计直觉,以下主要探讨空洞卷积在语义分割(semantic segmentation)的应用。

    卷积的主要问题

    up-sampling/pooling layer(e.g. bilinear interpolation) is deterministic(not learnable)

    内部数据结构丢失,空间层级化信息丢失。

    小物体信息无法重建(假设有4个pooling layer,则任何小于2^4=16 pixel的物体信息将理论上无法重建)

    在这样问题的存在下,语义分割问题一直处于瓶颈期无法再明显提高精度,而dilated convolution 的设计就良好的避免了这些问题。

    对于dilated convolution,我们已经可以发现他的优点,即内部数据结构的保留和避免使用down_sampling这样的特性。但是完全基于dilated convolution的结构如何设计则是一个新的问题。

    pytorch中空洞卷积分为两类,一类是正常图像的卷积,另一类是池化时候。

    空洞卷积的目的是为了在扩大感受野的同时,不降低图片分辨率和不引入额外参数及计算量(一般在CNN中扩大感受野都需要使用S》1的conv或者pooling,导致分辨率降低,不利于segmentation,如果使用大卷积核,确实可以达到增大感受野,但是会引入额外的参数及计算量)。

    F.Conv2d和nn.Conv2d

    import torchimport torch.nn.functional as F# 小括号里面有几个[]就代表是几维数据input = torch.tensor([[1,2,0,3,1],                      [0,1,2,3,1],                      [1,2,1,0,0],                      [5,2,3,1,1],                      [2,1,0,1,1]])kernel = torch.tensor([[1,2,1],                       [0,1,0],                       [2,1,0]])input = torch.reshape(input,(1,1,5,5))kernel = torch.reshape(kernel,(1,1,3,3))# stride代表的是步长的意思,即每次卷积核向左或者向下移动多少步进行相乘#  因为conv2d的input和weight对应的tensor是[batch,channel,h,w],所以上述才将它们进行reshapeoutput = F.conv2d(input,kernel,stride=1)print(output)output = F.conv2d(input,kernel,stride=2)print(output)# padding代表的是向上下左右填充的行列数,里面数字填写0output3 = F.conv2d(input,kernel,stride=1,padding=1)print(output3)
    import torchimport torchvisionfrom torch.utils.data import DataLoaderfrom torch import nnfrom torch.nn import Conv2dfrom torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10('./torchvision_dataset', train=False, download=False,                                       transfORM=torchvision.transforms.ToTensor())# 准备好数据集就放在dataloader中进行加载dataloader = DataLoader(dataset, batch_size=64)# 开始定义一个卷积类class Zkl(nn.Module):    def __init__(self):        super(Zkl, self).__init__()        self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)    def forward(self,x):        x = self.conv1(x)        return xwriter = SummaryWriter("nn_conv2d")zkl = Zkl()# print(zkl)step = 0for data in dataloader:    imgs,target = data    output = zkl(imgs)    #print(imgs.shape)    #print(output.shape)    writer.add_images('nn_conv2d_input',imgs,step)    #因为输出是6个通道,tensorboard无法解析,所以需要reshape三个通道    output = torch.reshape(output,(-1,3,30,30))    writer.add_images('nn_conv2d_output',output,step)    step+=1writer.close()

    感谢各位的阅读,以上就是“F.conv2d pytorch卷积计算方式是什么”的内容了,经过本文的学习后,相信大家对F.conv2d pytorch卷积计算方式是什么这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

    --结束END--

    本文标题: F.conv2d pytorch卷积计算方式是什么

    本文链接: https://lsjlt.com/news/349531.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    猜你喜欢
    • F.conv2d pytorch卷积计算方式是什么
      这篇文章主要讲解了“F.conv2d pytorch卷积计算方式是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“F.conv2d pytorch卷积计算方式是什么”吧...
      99+
      2023-07-05
    • F.conv2d pytorch卷积计算方式
      目录F.conv2d pytorch卷积计算可以这样理解卷积的主要问题F.Conv2d和nn.Conv2d总结F.conv2d pytorch卷积计算 Pytorch里一般小写的都是...
      99+
      2023-02-21
      pytorch F.conv2d pytorch卷积计算 pytorch卷积
    • matlab积分计算的方法是什么
      在MATLAB中,可以使用多种方法计算积分,其中包括:1. 符号积分:MATLAB可以进行符号计算,使用符号计算工具箱可以进行符号积...
      99+
      2023-09-14
      matlab
    • pytorch tensor计算三通道均值方式是什么
      这篇文章主要介绍“pytorch tensor计算三通道均值方式是什么”,在日常操作中,相信很多人在pytorch tensor计算三通道均值方式是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对...
      99+
      2023-07-02
    • tensorflow反卷积实现的方法是什么
      在TensorFlow中,可以使用tf.nn.conv2d_transpose函数来实现反卷积操作。该函数的参数包括输入张量、卷积核...
      99+
      2024-04-02
    • pytorch卷积神经网络搭建要注意什么
      在搭建PyTorch卷积神经网络时,需要注意以下几点: 输入数据的维度和通道数必须与网络模型中的输入层匹配。 确保卷积核的大小、步...
      99+
      2024-04-02
    • pytorch搭建卷积神经网络要注意什么
      搭建卷积神经网络时,需要注意以下几点: 确保输入数据的维度和通道数与网络的输入层匹配。 确保卷积核的大小、步长和填充大小设置合理。...
      99+
      2024-04-08
      pytorch
    • Pytorch卷积神经网络迁移的目标及好处是什么
      本文小编为大家详细介绍“Pytorch卷积神经网络迁移的目标及好处是什么”,内容详细,步骤清晰,细节处理妥当,希望这篇“Pytorch卷积神经网络迁移的目标及好处是什么”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧...
      99+
      2023-06-30
    • PyTorch动态计算图的概念是什么
      PyTorch动态计算图是指在PyTorch中,计算图是动态构建的,即在每次前向传播过程中都会重新构建计算图。这意味着用户可以在运行...
      99+
      2024-03-05
      PyTorch
    • TensorFlow卷积神经网络MNIST数据集实现方法是什么
      本篇内容主要讲解“TensorFlow卷积神经网络MNIST数据集实现方法是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“TensorFlow卷积神经网络MNIST数据集实现方法是什么”吧!...
      99+
      2023-06-25
    • php中几次方的计算公式是什么
      本文操作环境:Windows10系统、PHP7.1版、Dell G3电脑。php中几次方的计算公式是什么计算公式为:$x=pow(底数,指数);作用:pow()函数的作用是将一个数进行n次方计算后返回语法:pow(X,Y);参数:X表示要做...
      99+
      2017-11-24
      php
    • CIDR计算方法是什么
      CIDR(Classless Inter-Domain Routing)是一种用于将IP地址划分为不同的子网的方法,它不依赖于传统的...
      99+
      2023-10-23
      CIDR
    • PyTorch的模型部署方式是什么
      PyTorch模型的部署方式通常有以下几种: 部署到本地计算机:可以在本地计算机上使用PyTorch的预训练模型或自己训练的模型...
      99+
      2024-03-14
      PyTorch
    • 分布式计算Hadoop指的是什么
      这篇文章给大家介绍分布式计算Hadoop指的是什么,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。Hadoop是什么:Hadoop是一个开发和运行处理大规模数据的软件平台,是Appach的一个用java语言实现开源软件框...
      99+
      2023-06-16
    • 返回最大值的index pytorch方式是什么
      这篇文章主要讲解了“返回最大值的index pytorch方式是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“返回最大值的index pytorch方式是什么”吧!返...
      99+
      2023-07-02
    • CSS元素的宽度与高度计算方式是什么
      这篇文章主要介绍“CSS元素的宽度与高度计算方式是什么”,在日常操作中,相信很多人在CSS元素的宽度与高度计算方式是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”CSS元...
      99+
      2024-04-02
    • 计算机中旋转图片的快捷方式是什么
      小编给大家分享一下计算机中旋转图片的快捷方式是什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!旋转图片的快捷方式是:1、从左向右顺时针旋转的快捷键是“Ctrl+...
      99+
      2023-06-20
    • 大数据文本并行计算实现方式是什么
      本篇文章为大家展示了大数据文本并行计算实现方式是什么,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。对于大数据文件的处理,可以充分利用现代计算机的多核CPU,实施多线程并行计算,从而达到提速的目的。然...
      99+
      2023-06-03
    • 云服务器ecs实例类型计算方式是什么
      云服务器ECS实例类型是按照CSP的方式计算的,即按照CPU、内存、存储资源的使用情况进行分配。这种分配方式通常用于存储大容量内容的网站,如社交网络、视频流媒体等,需要对服务器性能进行充分的考虑。 以下是云服务器ECS实例类型计算方式的简...
      99+
      2023-10-27
      实例 类型 方式
    • 计算机的体积、存储容量、输入输出能力是什么
      本篇内容主要讲解“计算机的体积、存储容量、输入输出能力是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“计算机的体积、存储容量、输入输出能力是什么”吧!计算机的体积、存储容量、输入输出能力属于...
      99+
      2023-06-26
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作