当前位置:   article > 正文

论文了解-3D human pose estimation in video with temporal-conv_计算机视觉骨架长度

计算机视觉骨架长度

前言

本文是2019年的CVPR,内容主要是视频中的姿态估计。本文的主要思想是:2D姿态估计+视频中的时序信息=3D姿态估计。且效果好于同时期所有的3D姿态估计模型。

技术理解

开始先放出网络结构。采用的是Res-Net的网络结构。需要注意网络的需要是一组2D pose的坐标。
在这里插入图片描述
这里我主要说一下该文中用到的重要方法,网络结构不进行讲述。

模型思想
2D到3D,3D到2D。预测出的2D坐标转化为3D坐标后,再将预测的3D坐标反映射为2D坐标,用映射后的2D坐标与转化前的2D坐标进行比较。

如何3d到2d

1.时序信息

因为一个2D点对应多个3D点,因此需要利用时序信息来帮助区分这些3D的坐标点。这里采用的是空洞卷积。因为阅读论文发现空洞卷积经常被使用到,这里用两张图帮助理解什么是空洞卷积。

普通卷积:
在这里插入图片描述
空洞卷积:
在这里插入图片描述

使用空洞卷积能处理需要的过去和未来帧的信息。同时还能降低预测后视频的抖动,增加视

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/950397
推荐阅读
相关标签
  

闽ICP备14008679号