赞
踩
Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR-2022)
Xu, JieTang, HuayiRen, YazhouPeng, LiangZhu, Xiaofeng
设计一个无融合的MVC模型,以避免在所有视图之间融合不利的视图私有信息;
为每个视图中的样本生成不同级别的特征,包括低级特征、高级特征和语义标签/特征;
可将模型划分为二个子模块:
利用自编码器从原始特征中学习低级特征,然后让低级特征分别通过一个Feature MLP 和一个Label MLP,以获得高级特征H和语义标签Q;其中每个MLP由所有视图共享,有助于过滤出视图的私有信息;
两个MLP的设计如下:
主要区别就是Label MLP在线性层后加了softmax
重构损失函数:
通过对比执行一致性目标通过对比学习来实现:
在高级特征H在进行级对比,以挖掘所有视角视角的共同语义信息。H包含了所有视角的h,不同视角的同一样本(行)视为正样本,其余为负样本,损失函数如下:
距离度量函数:
最后再给所有视图的对比损失累加起来:
基于所有视图的相同聚类标签表示相同的语义聚类的理论(在视图间,Q的不同列(簇)的分布应该一致),在语义标签Q在进列级对比学习,以学习聚类一致性。Q包含了所有视角的q,不同视角的同一簇(列)视为正样本,其余为负样本,损失函数如下:
损失函数:
损失函数第一项旨在学习所有视图的聚类一致性,第二项是正则化项,用于避免将所有样本分配到单个聚类中,且:
将每个视图的聚类分配Q作为锚点,与每个视图中的高级特征H的聚类进行最大化匹配,以利用高级特征中包含的聚类信息来提高语义标签的聚类效率。匹配操作应该类似于最大二分图匹配,这里我讲不清,就不讲了emmmm......
匹配结束后,就可以通过Q获得最终的聚类结果:
看了论文代码,训练分为三阶段:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。