您好、欢迎来到现金彩票网!
当前位置:21点 > 姿态识别 >

计算机视觉“探奇”:深度剖析基于飞桨的人体姿态识别算法

发布时间:2019-07-04 04:04 来源:未知 编辑:admin

  随着深度学习技术的发展,人体骨骼关键点的检测效果也在不断提升,且被广泛应用于计算机视觉相关领域,成为许多计算机视觉任务的基础,包括安防,新零售,动作捕捉,人机交互等等。现在,大火的人体姿态识别也有了飞桨(PaddlePaddle)的实现。我们来带小伙伴们学习一下怎么利用飞桨(PaddlePaddle)来实现人体姿态的识别任务。

  人体姿态识别(Human pose estimation)是指还原给定的一段视频或者是一张照片中人体关键点的位置。近年来研究人员对姿态识别深入研究,使得该领域得到了重大发展。伴随的是整体的算法和系统复杂性的增加,这导致了算法分析和比较变得更加困难。在这里我们用飞桨(PaddlePaddle)实现了简单有效的基准方法(baseline methods),并在有挑战性的 benchmark 上实现了最先进的结果,这会有助于激发一些新的 ideas 和简化评估方式。

  人类姿态识别可以应用在众多领域,比如应用在安防领域,判断画面中的人是否有过激行为并及时报警。应用在新零售领域判断人们的购买行为。或者应用于步态分析,评估运动员的运动状况,进而提升运动员成绩。以及应用于人机交互领域,用户可以隔空控制家电设备等等方面。

  下面的视频是一个基于 Paddle Fluid,应用 MSRA 提供的用于人体姿态识别和跟踪的简单基准论文 [1] 的重新实现的简单演示

  原文作者认为目前的姿态识别方法都过于复杂,并且有显著的差异,比如 Hourglass,CPN 等等,比较这些工作的差异性,更多体现在系统层面而不是信息层面。比如:MPII 基准测试的主要方法在许多细节上有很大的差异,但是在准确性上的差别又很小。所以很难说哪些细节是影响准确性的重要因素。此外,关于 COCO 基准测试的主要代表性工作也很复杂,但是差别很大,这些方法之间的比较主要是在系统层面而不是信息层面。因此,该文作者提出了一个既精确,又简单(网络结构非常简单)的姿态估计方法,作为一个 baseline,希望能激发一些新的 ideas 和简化评估方式。

  文章的一个核心问题就是一个简单的方法到底能有多好的结果?为了能更好的回答这个核心问题,作者提供了一个 baseline 方法用于姿态识别和跟踪,虽然 baseline 十分简单,但是效果也十分地有效。因此我们将 baseline 和两个当前最先进的人体姿态识别方法 Hourglass 和 CPN 作比较。三者的网络结构比较如下图所示:

  作者在文中提出的姿态识别方式是一种简单的 baseline(图 1 中的 c 小图),相比于 Hourglass 和 CPN,该网络结构比较简单,没有任何的特征融合。只是在 ResNet 中插入了几层反卷积(Deconvolution)来替换 Upsampling 与 convolution 组成的结构,这样可以将低分辨率的特征图(feature map)扩张为原图的大小,进而可以生成预测关键点需要的 Heatmap。但是本文的方法在 COCO 关键点检测的任务上比 CPN 和 Hourglass 得到了更好的结果,即更高的 AP(average precision)值,如图 2:

  对于视频中的多人姿态跟踪,首先估计帧中的人体姿势,然后通过在帧上为它们分配唯一标识号(id)来跟踪这些人体姿势。文章先引入了 ICCV17 PoseTrack Challenge 的优胜者的一种算法来解决多人轨迹追踪,也就是使用 MaskRcnn 来进行人的检测,在视频第一帧中对每个检测到的人给一个标识 ID,在之后的每一帧检测到的人都和上一帧检测到的人通过某种度量方式(计算检测框的 IoU)来算一个相似度,将相似度大的作为同一个标识 id, 没有匹配到的分配一个新的标识 id。文章作者提出的方法保留了这一方法的主要流程,并且在此之上又提出了两点改进方案:

  1. 除了检测网络之外,还使用光流(optical flow)法补充一些检测框,用以解决检测网络的漏检问题(比如图 3中最左边的人就没有被检测网络检测到)。

  然后,将它们放在此 repo 的目录根目录下预训练 pretrained 的文件夹中,使它们看起来像:

  我们还支持在自定义图像上应用预先训练的模型。将图像放入此 repo 的目录根目录下的测试文件夹中,之后可以运行:

  注:如果图像中有多个人,则应首先使用 Faster R-CNN,SSD 等检测器先检测并裁剪出人体区域,再进行姿态估计。因为本文提到的 simple-baseline 是一种 top-down 的姿态估计方法。

  我们没有使用任何模型选择策略来挑选最佳模型,均直接采用最后一个 checkpoint 结果进行测试。

http://hitomisiri.com/zitaishibie/263.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有