admin管理员组

文章数量:1130349

动机:为什么作者想要解决这个问题?

  • 尽管3D人体姿态估计取得了进步,但以前的大多数方法只处理单人情况

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 多人姿态估计
  • 能够得到以相机为中心人体关键点的绝对坐标,看这篇论文的原因
  • 自上而下方法

规划:他们如何完成工作?

  • 系统架构

    1)DetectNet
       裁剪提取出人体边框。
    2)RootNet (重点)
       RootNet利用裁剪后的人体图像,定位人体的根R=(xR,yR,ZR)\mathbf{R}=\left(x_{R}, y_{R}, Z_{R}\right)R=(xR,yR,ZR),其中xRx_{R}xRyRy_{R}yR是像素坐标(不知道这个像素坐标和下面的有什么区别),ZRZ_{R}ZR 是绝对深度值。
    3)PoseNet
       从裁剪的人体图像中估计与根相关的 3D 姿态,Pjrel=(xj,yj,Zjrel)\mathbf{P}_{j}^{r e l}=\left(x_{j}, y_{j}, Z_{j}^{r e l}\right)Pjrel=(xj,yj,Zjrel)xjx_{j}xjyjy_{j}yj是裁剪图像空间中的像素坐标, Zjrel Z_{j}^{\text {rel }}Zjrel 是人体root的相对深度值。ZjrelZ_{j}^{r e l}ZjrelZRZ_{R}ZR得到ZjabsZ_{j}^{a b s}Zjabs,然后将xjx_{j}xjyjy_{j}yj转换到原始输入图像空间。最后通过简单的反投影得到最终的绝对3D 位姿。

理由:通过什么实验验证它们的工作结果

  • 误差度量指标

       有两种评估指标被广泛使用。第一个是平均每个关节位置误差 (MPJPE) [1],它是在将估计的人体root与ground truth 3D 姿势对齐后计算的。第二个是进一步对齐后的 MPJPE(即 Procrustes 分析 (PA) [2]),被称为 PA MPJPE。为了评估绝对 3D 人类根的定位,引入了root R\mathbf{R}R 的估计坐标与 ground truth R∗\mathbf{R}^{*}R 之间的欧几里得距离的平均值,即根位置误差 (MRPE) 的平均值,作为一个新的度量:
    MRPE=1N∑i=1N∥R(i)−R(i)∗∥2, M R P E=\frac{1}{N} \sum_{i=1}^{N}\left\|\mathbf{R}^{(i)}-\mathbf{R}^{(i) *}\right\|_{2}, MRPE=N1i=1NR(i)R(i)2,
       其中上标 i 是样本索引,N 表示测试样本的总数。

自己的看法

  • 最终实现效果

    思考这种图怎么画出来的???

参考文献

[1] Human3.6m: Large scale datasets and predictive methods for 3d human sensing in natural environments.
[2] Generalized procrustes analysis

动机:为什么作者想要解决这个问题?

  • 尽管3D人体姿态估计取得了进步,但以前的大多数方法只处理单人情况

贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 多人姿态估计
  • 能够得到以相机为中心人体关键点的绝对坐标,看这篇论文的原因
  • 自上而下方法

规划:他们如何完成工作?

  • 系统架构

    1)DetectNet
       裁剪提取出人体边框。
    2)RootNet (重点)
       RootNet利用裁剪后的人体图像,定位人体的根R=(xR,yR,ZR)\mathbf{R}=\left(x_{R}, y_{R}, Z_{R}\right)R=(xR,yR,ZR),其中xRx_{R}xRyRy_{R}yR是像素坐标(不知道这个像素坐标和下面的有什么区别),ZRZ_{R}ZR 是绝对深度值。
    3)PoseNet
       从裁剪的人体图像中估计与根相关的 3D 姿态,Pjrel=(xj,yj,Zjrel)\mathbf{P}_{j}^{r e l}=\left(x_{j}, y_{j}, Z_{j}^{r e l}\right)Pjrel=(xj,yj,Zjrel)xjx_{j}xjyjy_{j}yj是裁剪图像空间中的像素坐标, Zjrel Z_{j}^{\text {rel }}Zjrel 是人体root的相对深度值。ZjrelZ_{j}^{r e l}ZjrelZRZ_{R}ZR得到ZjabsZ_{j}^{a b s}Zjabs,然后将xjx_{j}xjyjy_{j}yj转换到原始输入图像空间。最后通过简单的反投影得到最终的绝对3D 位姿。

理由:通过什么实验验证它们的工作结果

  • 误差度量指标

       有两种评估指标被广泛使用。第一个是平均每个关节位置误差 (MPJPE) [1],它是在将估计的人体root与ground truth 3D 姿势对齐后计算的。第二个是进一步对齐后的 MPJPE(即 Procrustes 分析 (PA) [2]),被称为 PA MPJPE。为了评估绝对 3D 人类根的定位,引入了root R\mathbf{R}R 的估计坐标与 ground truth R∗\mathbf{R}^{*}R 之间的欧几里得距离的平均值,即根位置误差 (MRPE) 的平均值,作为一个新的度量:
    MRPE=1N∑i=1N∥R(i)−R(i)∗∥2, M R P E=\frac{1}{N} \sum_{i=1}^{N}\left\|\mathbf{R}^{(i)}-\mathbf{R}^{(i) *}\right\|_{2}, MRPE=N1i=1NR(i)R(i)2,
       其中上标 i 是样本索引,N 表示测试样本的总数。

自己的看法

  • 最终实现效果

    思考这种图怎么画出来的???

参考文献

[1] Human3.6m: Large scale datasets and predictive methods for 3d human sensing in natural environments.
[2] Generalized procrustes analysis

本文标签: 文献CameraDistanceAwareCV