当前位置:   article > 正文

【Pytorch】神经网络搭建_神经网络搭建思路

神经网络搭建思路

在之前我们学习了如何用Pytorch去导入我们的数据和数据集,并且对数据进行预处理。接下来我们就需要学习如何利用Pytorch去构建我们的神经网络了。

目录

基本网络框架Module搭建

卷积层

从conv2d方法了解原理

从Conv2d方法了解使用

池化层

填充层

非线性层

线性层


基本网络框架Module搭建

Pytorch里面有一个工具包位于torch下面的nn,这里的nn代表的是Netural Network神经网络,这就表示这个包用于我们创建基本的神经网络。

而关于Pytorch里面的神经网络结构、方法和使用这些方法的教程都可以在Pytorch官网里面找到:

接下来我们看看如何构建一个最简单的神经网络,我要它实现的功能是将我的输入矩阵每一个元素都扩大十倍。而看了Module类的介绍文档后我们知道我们要想创建一个新的Module类型的神经网络首先需要创建一个新的类Mymodule,并且其继承自torch.nn里面的Module类。这里我们根据我们的需要,对我们新创出来的类进行方法重写:

  1. import torch
  2. from torch import nn
  3. class Mymodule(nn.Module):
  4. def __init__(self) -> None:
  5. super().__init__()
  6. def forward(self, x):
  7. return x * 10
  8. Module = Mymodule()
  9. x = torch.tensor([[1.0, 2.0, 3.0], [1.0, 2.0, 3.0], [1.0, 2.0, 3.0]])
  10. print('input:', x)
  11. print('output:', Module(x))

可以看到这样一个简单的神经网络就构建好了

卷积层

接下来我们来看看如何构建一个卷积层。假设现在我们有一个二维的矩阵,这个矩阵的大小是5x5,而我们卷积层的作用是利用一个卷积核(kernel)来提取这个矩阵里面的关键特征,常见的方法就是用这个卷积核去和输入的二维矩阵中对应每一项进行乘积操作,并且将其单次比较的所有乘积求和就是新的输出矩阵对应位置的数值。它表示输入矩阵在该范围(卷积核大小)内与卷积核所表示的特征的关联程度,这个位置的输出越大,表示关联程度越大。同时它也会剔除一些与我们判断无关的信息,下图是我在网上找到有关卷积层的功能的图片,左边的就是输入,中间是卷积核,而右边就是输出。

conv2d方法了解原理

关于卷积实现的基本原理模型就是位于torch.nn.functional下面的这些conv1d、conv2d、conv3d方法, 不过我们常用的还是一维和二维的这些卷积函数。

假如我们以使用一个二维的卷积方法为例,发现它需要我们输入一些参数,比如说input输入、weight权重、卷积核、bias偏置、stride步长等等这些参数。

输入

首先我们来看一下input,我们可以看到它需求的input是一个含有4种形状描述的tensor,而我们常见的二维tensor就是宽和高两个参数,那就表示如果我们要想使用卷积函数,就需要对我们的tensor进行形状转换。

 其中torch为我们提供了tensor形状转换的方法,就是reshape。

那我们就把一个二维的tensor变量的形状重塑为符号题目要求的输入,不难发现我们的一个二维矩阵的前面两个参数minbatch一批最小的数量和in_channels通道数都是1,而后面的两个高和宽就分别为5和5即可。

  1. x = torch.tensor([[1.0, 2.0, 3.0, 4.0, 5.0],
  2. [1.0, 2.0, 3.0, 4.0, 5.0],
  3. [1.0, 2.0, 3.0, 4.0, 5.0],
  4. [1.0, 2.0, 3.0, 4.0, 5.0],
  5. [1.0, 2.0, 3.0, 4.0, 5.0]
  6. ])
  7. x = torch.reshape(x, (1,1,5,5))
  8. print(x.shape)

卷积核

接下来我们来看看卷积核怎么去处理,我们可以通过下面的图片知道权重需要的也是一个4参数形状的tensor,并且它的第一个参数为输出的通道数,第二个为输入的通道数除以groups组数,将整体卷积细化为分组卷积,然后后面两个为高和宽。

那么我们就可以对我们的卷积核进行处理了:

  1. kernel = torch.tensor([[1.0, 1.0, 1.0],
  2. [1.0, 1.0, 1.0],
  3. [1.0, 1.0, 1.0]])
  4. kernel = torch.reshape(kernel, (1, 1, 3, 3))

步长

然后就是stride,这个表示kernel映射完一次后移动(向右或者向下)的步数,默认为1。它也可是同时设置宽和高方向的移动步长。

下图为步长为1和步长为2的区别:

 

填充

padding是决定是否需要向我们的输入矩阵进行填充,以此进行大小变换的参数,如果我们让padding等于1,那就默认让我们矩阵外周再增加一层,而且这一层填充的的默认数值就是0,如果我们想要进行修改,可以通过padding_mode这个参数进行设置。如果我们让padding等于2,那么同理它也会将我们的输入矩阵外向扩展两圈。

了解完几个卷积层常用到的参数之后,我们可以尝试使用一下conv2d这个函数进行卷积操作了。下面就是利用模型对卷积层进行一次封装运算:

  1. import torch
  2. from torch import nn
  3. class Mymodule(nn.Module):
  4. def __init__(self) -> None:
  5. super().__init__()
  6. def forward(self, x, kernel):
  7. return torch.nn.functional.conv2d(x, kernel, stride=1)
  8. Module = Mymodule()
  9. x = torch.tensor([[1.0, 2.0, 3.0, 4.0, 5.0],
  10. [1.0, 2.0, 3.0, 4.0, 5.0],
  11. [1.0, 2.0, 3.0, 4.0, 5.0],
  12. [1.0, 2.0, 3.0, 4.0, 5.0],
  13. [1.0, 2.0, 3.0, 4.0, 5.0]
  14. ])
  15. kernel = torch.tensor([[1.0, 1.0, 1.0],
  16. [1.0, 1.0, 1.0],
  17. [1.0, 1.0, 1.0]])
  18. x = torch.reshape(x, (1, 1, 5, 5))
  19. kernel = torch.reshape(kernel, (1, 1, 3, 3))
  20. print(Module(x, kernel))

输出结果:

从Conv2d方法了解使用

与conv2d功能类似类似,只不过conv2d是可以直接使用的工具,而Conv2d是制造工具的模板。在nn包中还另外封装好了一个我们平时更常用到的卷积层函数Conv2d,这个在nn包下面的Conv2d比起之前functional下面的conv2d方法更加普遍被我们使用,因为它的封装程度比较好。我们可以打开Pytorch官网大致了解一下它的参数:

不难看出它的参数列表和conv2d差不多,有区别的是Conv2d的第一个和第二个参数需要的是in_channels和out_channels,它们分别代表着输入的通道数和输出到通道数。我们利用不同数目的卷积核即可对应得到不同数目的输出通道,如下图就是2个out_channels的输出。

它的使用方式和前面conv2d的方法使用方式类似,下面是一个下载数据集并且使用卷积函数对里面的图片数据进行通道扩展的例子的过程:

  1. import torch
  2. from torch import nn
  3. import torchvision
  4. from torch.utils.data import DataLoader
  5. tools = torchvision.transforms.Compose([torchvision.transforms.ToTensor()])
  6. dataset = torchvision.datasets.MNIST('./dataset', train=True, transform=tools, download=True)
  7. dataloader = DataLoader(dataset=dataset, batch_size=5, shuffle=True, drop_last=True)
  8. class Module(torch.nn.Module):
  9. def __init__(self) -> None:
  10. super().__init__()
  11. self.conv2d = nn.Conv2d(in_channels=1, out_channels=3, kernel_size=(3,3), stride=1, padding=0)
  12. def forward(self, x):
  13. x = self.conv2d(x)
  14. return x
  15. module = Module()
  16. for data in dataloader:
  17. imgs, target = data
  18. output = module(imgs)
  19. print(imgs.shape)
  20. print(output.shape)

我们可以很明显看到输入的每一个数据和输出的每一个数据的大小都发生了变化:从输入到单通道变成了输出到三通道,同时宽高也变小了,但是每个batch_size都保持是5没变

池化层

在学习池化层之前我们需要知道池化的作用是什么,以最池化方式为最大池化方法为例。池化的目的是从输入中的数据中提取出其中符合特征的一部分保留,以达到在减少数据量的同时保持了最能表现输入特征的数据。

之前我们学习了卷积层,卷积层是利用一个卷积核筛选出输入数据中各部分对于某个特征的符合程度,即减小了数据的大小,又能够准确描绘出各部分对于某个特征的符合程度。而卷积层输出的参数一般来说是一个tensor,这个tensor中会包含了各部分对于某个特征的符合程度(有大有小),而我们池化层一般就跟在卷积层后面,它要做的工作是从卷积层输出的tensor提取出那些符合特征的部分,而剔除掉那些不符合的部分,达到保留原先输入的特征同时又减少了数据量的目的。

查看Pytorch的官网可知,池化的参数一般有下面几个:

其中kernel_size就是我们匹配的池化核的大小,而stride就是步长,padding也是是否需要外扩,dilation是是否设置有空隙的kernel匹配核。这里比较新的是ceil_mode,这个表示我们池化数据对比过程中如果kernel的右端超出了输入tensor的右端是否保留,True则为保留,这和我们之前在卷积层时一律不保留就不同了。

 当ceil_mode模式为True时,我们一律设置stride=3,结果是:\begin{bmatrix} 3 &5 \\ 3& 5 \end{bmatrix}

当ceil_mode模式为False时,我们一律设置stride=3,结果是:\begin{bmatrix} 3\end{bmatrix}

而我们用代码处理如下:不过这里要注意tensor里面要用浮点数torch.float32,并且因为MaxPool2d函数的特性,我们需要对输入x进行维度重塑,一批次1个,通道为1,高和宽均为5。但是值得注意的一点是池化后channel是不会变的,所有我们转化回3通道图片不需要reshape。

  1. import torch
  2. from torch.nn import Module
  3. class Mymodule(Module):
  4. def __init__(self) -> None:
  5. super().__init__()
  6. self.poolmax = torch.nn.MaxPool2d(kernel_size=(3,3), stride=3, padding=0, ceil_mode=True)
  7. def forward(self, x):
  8. return self.poolmax(x)
  9. x = torch.tensor([[1.0, 2.0, 3.0, 4.0, 5.0],
  10. [1.0, 2.0, 3.0, 4.0, 5.0],
  11. [1.0, 2.0, 3.0, 4.0, 5.0],
  12. [1.0, 2.0, 3.0, 4.0, 5.0],
  13. [1.0, 2.0, 3.0, 4.0, 5.0]
  14. ], dtype=torch.float32)
  15. mymodule = Mymodule()
  16. x = torch.reshape(x, [-1, 1, 5, 5])
  17. x = mymodule(x)
  18. print(x)

下面是ceil_mode为True的输出:

下面是ceil_mode为False的输出:

 

填充层

填充层也就是padding layer,它的主要作用是对我们传入的输入tensor进行填充,其功能就类似于我们池化或者卷积层中的padding,不过它可以填充不同的常数,总之这是一个我们可能平时用得比较少的层,有需要我们可以再去官网文档那里查看

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/816658?site
推荐阅读
相关标签