当前位置:   article > 正文

昇思25天学习打卡营第27天|munger85

昇思25天学习打卡营第27天|munger85

Vision Transformer图像分类

Vit是最新的用了transformer架构的图像模型,在很多比赛都获得了大奖,是非常优秀的架构。而且据说cnn其实只是vit的一个子集,cnn的卷积其实就是vit在很小的范围做了注意力机制。非常有意思

整个架构就好像这样

在这里插入图片描述
在这里插入图片描述
图片准备好,每个图也有标签,做些预处理,增加模型的泛化能力
transformer是用来处理一串文字序列到另外一串,其实图片也可以搞成一个个小的子图,每个子图就好像一个词,然后大图是一句话,这不就是用transformer做图片模型了。我是这样理解
整个网络就看
在这里插入图片描述
在这里插入图片描述
最后分类为num_classes

在这里插入图片描述
在这里插入图片描述训练时候的分类是这样的id,要转成人可读的字符
metafile = os.path.join(data_path, “ILSVRC2012_devkit_t12/data/meta.mat”)
meta = io.loadmat(metafile, squeeze_me=True)[‘synsets’]
有这个matlab的文件要这样打开。把index映射到单词

训练完了区预测
在这里插入图片描述
请添加图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/928710
推荐阅读
相关标签
  

闽ICP备14008679号