赞
踩
2013 ILSVRC 冠军
ZFNet(Zeiler & Fergus Net)是由Matthew D. Zeiler和Rob Fergus在2013年提出的卷积神经网络模型,它是基于AlexNet进行改进而来的。ZFNet在当年的ImageNet Large Scale Visual Recognition Challenge (ILSVRC)中取得了冠军,尤其在分类和定位任务上表现突出。
论文:
https://cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf
csdn译文:
https://download.csdn.net/download/p731heminyang/89567205
其实zfNet相比于alexNet网络架构没有太大的改变,只是做了少量的优化而已,不过他提出的模型的可视化,用于观察和理解卷积神经网络内部的工作机制,这不仅加深了对模型行为的理解,也为模型的优化提供了指导。
网络架构一样,只是这里通过他的 模型可视化,对齐网络结构进行了优化,具体如下:
alexNet
论文里面描述修改过程:
通过比对知道,修改点:
第一层卷积层:从11x11步长3 变为了7x7 步长为2
第3/4/5层卷积层: 参数个数从之前的384、384、256修改为512,1024,512
ZFNet在ImageNet数据集上的top-5错误率从AlexNet的16.4%降低到了11.7%。
输入都是224x224x3
网络层 | AlexNet | ZFNet | |||
序号 | 层数 | 参数 | 输出 | 参数 | 输出 |
1 | C1卷积层 | 个数:96 卷积核:11x11 步长:4 激活函数:ReLU | 96x55x55 | 个数:96 卷积核:7x7 步长:2 | 96x110x110 |
2 | P1池化层 | 滤波器:3x3 步长:2 | 96x27x27 | 滤波器:3x3 步长:2 | 96x55x55 |
3 | C2卷积层 | 个数:256 卷积核:5x5 步长:1 填充:2 激活函数:ReLU | 256x27x27 | 个数:256 卷积核:5x5 步长:1 填充:0 激活函数:ReLU | 256x26x26 |
4 | P2池化层 | 滤波器:3x3 步长:2 | 256x13x13 | 滤波器:3x3 步长:2 | 256x13x13 |
5 | C3卷积层 | 个数:384 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 384x13x13 | 个数:512 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 512x13x13 |
6 | C4卷积层 | 个数:384 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 384x13x13 | 个数:1024 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 1024x13x13 |
7 | C5卷积层 | 个数:256 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 256x13x13 | 个数:512 卷积核:3×3 步长:1 填充:1 激活函数:ReLU | 512x13x13 |
8 | P3池化层 | 滤波器:3x3 步长:2 | 256x6x6 | 滤波器:3x3 步长:2 | 512x6x6 |
9 | F1全连接层 | 4096 | 4096 | 4096 | 4096 |
10 | D1 Dropout | 丢失率:0.5 | 4096 | 丢失率:0.5 | 4096 |
11 | F2全连接层 | 4096 | 4096 | 4096 | 4096 |
12 | D2 Dropout | 丢失率:0.5 | 4096 | 丢失率:0.5 | 4096 |
13 | F3全连接层 | 1000 激活参数:Softmax | 1000 | 1000 激活参数:Softmax | 1000 |
这部分内容不涉及训练,只是训练之后查询训练过程中进行网络可视化。
论文里面提出了一个 反卷积网络(deconvnet),可以在卷积层后进行反卷积化,大概看了下文章,理解了下意思,就是把特征点卷积之后,然后再通过反卷积的方式映射到像素空间进行展示。
通过上图可以看出,是在池化层做出了拦截然后处理,我们的步骤为:map-》卷积-》relu-》池化,拦截后反向操作就需要:反池化-》反relu-》反卷积-》像素图片
上图左边是反卷积化,右边卷积化操作,通过中间的switch(开关)记录最大值在原始像素空间的位置(黑白图展示)。
通过上述的技术可以可视化每层的特征值,我们看看他们这几层特征的可视化图
从上述可以看出来特征从简单的边缘、颜色到复杂的纹理、形状,再到完整的物体轮廓,浅层通常负责提取图像的低级特征,如边缘、角点和纹理等,而深层则负责提取更高级别的抽象特征,如物体的部分、整体形状和类别(越高层可以表达的越抽象,比如一张图表达各种复杂的意思和逻辑啥的,所以我们现在的大模型动不动就是上百亿的参数,层级也比较深,表达的内容各种各样),此论文让我们深入理解卷积网络工作原理作出了重大贡献。
论文提出了网络可视化、遮挡测试、图片平移、缩放翻转旋转测试,得出的结论,如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。