草庐IT

MMPose姿态估计+人体关键点识别效果演示

想养一群英短啊 2024-05-23 原文

MMPose——开源姿态估计算法库(附人体关键点识别效果演示)

一、简介

1.1 背景

首先姿态估计属于计算机视觉领域的一个基础研究方向。MMPose是基于Pytorch的姿态估计开源算法库,功能全,涵盖的算法多。

1.2 姿态估计的任务分类

  • 维度:预测的是2D还是3D姿态。

  • 输入格式:图片 or 视频

  • 姿态的表示形式:关键点 or 形状等

  • 目标类型:全身 or 人脸 or 人手 or 动物 or 服饰

1.3 关于人体姿态估计任务

Human Pose Estimation是关键点检测任务中最热门的任务,即进行人体骨架和关节的关键点检测。

  • 人体姿态估计任务的扩展:包括基于骨架的、基于表面的、基于三维空间立体的。

例如:facebook提出的Dense pose。将整个人体表面进行包络。(伪3D),并没有将3维坐标还原出来。如果要做3D,用三维人体重建的库MMHuman3D。

关于视频理解(MMAction2)与人体姿态估计的关系:视频动作理解的基础就是人体姿态估计。先得把骨骼关键点构建出来,才能根据这些特征判断动作。MMAction2可以参考这篇:关于MMAction2

论文链接:DensePose

1.4 MMPose的相关贡献

(1)2D Human Pose(包括body+hand+face一共133个关键点)

(2)3D Human Pose(先检测人体,再检测2D Human Pose,再检测3D Human Pose)

(3)3D Human Pose(人体网格重建任务——从image中恢复人体网格)

(4)3D Hand Pose(基于RGB图像的2D和3D手势联合估计)

(5)其他还包括脸部关键点,animal pose,目标跟踪等等。

二、MMPose所涉及的算法

★这里先解释一下Regression和Heatmap

  • Regression:直接用模型回归预测得到每一个关键点的坐标
  • Heatmap: 不直接回归关键点本身的像素坐标,而是生成一张图,表示图中不同区域是该关键点的置信度。例如,人身上有14个关键点,就会生成14张heatmap,每个关键点处就会存在概率分布。

2.1 基于关键点坐标回归(Regression based)

DeepPose就是这一类方法的经典代表。直接回归关键点坐标的方法思路比较简单,预测速度快,但直接预测坐标的精度会受到一定影响。


论文链接:DeepPose

2.2 基于空间概率分布(Heatmap Based)

基于heatmap的方式逐渐成为主流。该方法会去每个位置预测一个分数,来表征该位置是关键点的置信度。根据预测到的heatmap,可以进一步去提取关键点的位置。由于该方法可以更好地保留空间信息,更符合CNN的设计特性,精度也比坐标直接回归更高。


论文链接:Stacked Hourglass

2.3 人体姿态估计算法(2D)

主要分为两种方法:自顶向下、自底向上

  • 自顶向下(TopDown):先检测处图片中的人体,再对每一个人体单独预测关键点。该方法的计算量会随着人数的增多而上升,但对不同尺寸的人体更加鲁棒,精度更高。通俗来说,该方法更准确

  • 自底向上(BottomUp):先去检测到所有的关键点,再进行关键点聚类,组合成人体。该方法的计算量不会随着人数的增多而上升。通俗来说,该方法更快(人更多的时候越明显)。

2.4 人体姿态估计算法(3D)

​ 主要在3维空间里去预测人的位置,根据输入不同,可以分为以下3种方法

  • 基于单目图像从2D Pose预测3D Pose

这种方法的经典代表:SimpleBaseline3D。根据2Dpose和原始图像的特征,直接估计3D Pose。但是基于单目图像会存在遮挡问题。


论文链接:SimpleBaseline3D

  • 基于多视角信息

这种方法的经典代表:VoxelPose。解决遮挡问题,例如一个场景有很多人,可以融合多视角的信息去重建3D Pose。

论文链接:VoxelPose

  • 基于视频(多帧)信息

在以上两种方法的基础上,引入时间维度,相邻的上下文信息可以辅助更好的预测。例如之前看的ViPNAS就是用上下文信息来辅助更好的预测。

这种方法的经典代表:VideoPose3D。用2D关键点序列(多了时间维度,就是有好几帧)作为输入,然后通过时序的卷积网络去处理信息,最后输出3DPose。

论文链接:VideoPose3D

三、MMPose所用的数据集

3.1 姿态估计关键点数据集(2D)

基于图像:COCO

基于视频:PoseTrack18

3.2 姿态估计关键点数据集(3D)

基于单人:Human3.6M(360万个人体pose的标注)

基于多视角:CMU Panoptic

基于手部:InterHand2.6M

四、MMPose的总体框架

4.1 采用模块化设计

将深度学习拆分成data(数据集)、model(模型)、optimizer(优化器)等组件,先把每一个小模块做好,再注册到registry(注册器)里,注册器里包含了很多功能类似的模块。在需要启动任务时,通过config配置系统,代码就会调用builder,从而构造一整套流程。减少了代码的耦合。

4.2 用户接口

在架构上,mmpose使用了mmcv提供的底层的接口,通过runner去管理模型的训练、测试、推理等。

4.3 核心组件

(1)Dataloader:sample定义 + pipline

(Dataloader文件所在位置:Dataloader

在dataloader方面,mmpose提供了一些数据集的接口,里面定义了sample和需要经过的pipline

  • datasets文件夹完成数据加载,准备pipline的输入,在evaluate函数里计算metric
  • piplines文件夹:pipline是数据预处理的流水线,由一系列的transform组成,每个transform的输入和输出都是字典。例如,LoadImageFromFile就是从文件中读取图像,ToTensor就是将读取的图像转化为pytorch的tensor。
  • samplers文件夹sampler就是采样器。sampler提供dataset里数据的索引,然后dataloader根据索引从dataset里提取出对应的data。然后将data输给网络进行training。

(2)Model:backbone + (neck) + head

(Model文件所在位置:models

在模型层面,会把模型 分为backbone,neck,head三个部分

  • detectors文件夹:pose的检测器。通常由backbone,neck,head组成。例如TopDown。
  • backbones文件夹:主干网络。例如ResNet,HRNet,HRFormer等就在这里定义。
  • necks文件夹:处理backbone得到的特征
  • heads文件夹:预测头,输出最终预测结果。(loss定义在head中)

4.4 其他文件夹

(1)apis(https://github.com/open-mmlab/mmpose/tree/master/mmpose/apis)

封装训练,测试和推理等流程

train.py:准备数据加载,把模型加载到GPU,构建optimizer和runner,注册hooks等

test.py:模型测试。需要输入模型和dataloader,测试模型精度

inference.py:模型推理,进行可视化等工作。

Webcam API:调用MMpose及其他算法,实现基于摄像头输入视频的交互式应用。

(2)cores:(https://github.com/open-mmlab/mmpose/tree/master/mmpose/core)

前后处理,可视化,定制工具等

(3)tools:(https://github.com/open-mmlab/mmpose/tree/master/tools)

  • train.py:启动训练任务的入口,读入config,初始化训练环境,创建模型及数据集等,调用apis/train.py
  • test.py:模型推理测试的接口,数据集开启test_mode,加载checkpoint,调用apis/test.py运行测试
  • 分布式训练的启动脚本:dist_train.sh——通过pytorch启动分布式 slurm_train.sh——通过slrum(一种集群式管理系统)启动分布式

五、MMPose相关效果演示

5.1 安装配置

本机环境:GPU RTX 2060、CUDA v11.1

Pytorch版本:1.8.0

torchvision版本:0.9.0

编译器版本:MSVC 192930137

mmtracking

mmpose:0.28.1

5.2 对图像中人体的关键点检测

(1)TopDown

  • 这里使用TopDown方法对图像进行预测

  • 先用目标检测把人的框检测出来:faster_rcnn网络

  • 再做框里的人的姿态估计与关键点检测:hrnet网络

  • 效果展示

(2)BottomUp

  • 这里不需要目标检测模型,只需要bottom up人体姿态估计模型
  • 人体关键点检测模型:hrnet
  • 效果精度并不如TopDown,会存在部分关键点之间的错误连接。但是在人更多的情况下速度会比TopDown快。

5.3 对视频中人体的关键点检测

(1)单帧输入模型的视频预测

  • 这里使用TopDown方法对视频进行预测

  • 目标检测与关键点识别的网络依然是faster_rcnn和hrnet

  • 效果展示

MMPose——单帧输入视频预测

  • 关于多帧输入模型的视频预测,就是将视频前后多帧画面输入模型用于姿态预测。相比于单帧输入,检测到的会更细,例如橱窗里的模特,广告牌上的人也会被检测到。但是同样,计算量也会大很多。

(2)全图输入模型的视频预测

  • 不提取人体检测框,直接将全图输入至姿态估计模型中。仅适用于单人,并且单人的效果并不好

  • 这里使用TopDown的全图输入方法对视频进行预测

  • 没有目标检测模型

  • 人体关键点检测网络:vipnas

  • 效果展示

MMPose——全图输入模型的视频预测

(3)BottomUp算法的视频预测

  • 同样,精度效果不如TopDown

  • 人体姿态估计模型:hrnet

MMPose——BottomUp算法的视频预测

5.4 对图像和视频中手掌的关键点检测

  • Topdown算法
  • 目标检测模型:cascade_rcnn
  • 手部关键点检测模型:res50
  • 效果展示:

在存在少部分遮挡的情况下,会存在部分关键点的误识别,但基本上手部关键点都检测正确

在没有遮挡的情况下,手部关键点全都准确识别。

视频中的手部关键点识别效果也不错

MMPose——手掌关键点检测

5.5 对图像和视频中全身的关键点检测

  • Topdown算法
  • 目标检测模型:faster_rcnn
  • 全身关键点检测模型:hrnet
  • 效果展示

视频中关键点检测效果也不错

MMPose——全身关键点检测(人脸+手+肢体)

5.6 MMPose摄像头实时效果

实时的效果一般,目标检测的fps为20左右,人体姿态估计的fps为10左右

六、相关参考链接

  1. DensePose论文链接:DensePose
  2. DeepPose论文链接:DeepPose
  3. Stacked Hourglass论文链接:Stacked Hourglass
  4. SimpleBaseline3D论文链接:SimpleBaseline3D
  5. VoxelPose论文链接:VoxelPose
  6. VideoPose3D论文链接:VideoPose3D
  7. MMPose中Dataloader位置:Dataloader
  8. MMPose中Model位置:models
  9. 项目地址:MMPose
  10. MMPose官方中文文档:MMPose中文文档
  11. 数据集的md文档:数据集文档
  12. 参考视频教程:同济子豪兄MMPose代码实战
  13. MMPose效果演示的相关参考文档:
    2D人体关键点检测
    在自己的数据集上训练2D人体关键点检测模型
    2D手掌关键点检测
    手掌检测模型
    摄像头实时webcam

有关MMPose姿态估计+人体关键点识别效果演示的更多相关文章

  1. 报告回顾丨模型进化狂飙,DetectGPT能否识别最新模型生成结果? - 2

    导读语言模型给我们的生产生活带来了极大便利,但同时不少人也利用他们从事作弊工作。如何规避这些难辨真伪的文字所产生的负面影响也成为一大难题。在3月9日智源Live第33期活动「DetectGPT:判断文本是否为机器生成的工具」中,主讲人Eric为我们讲解了DetectGPT工作背后的思路——一种基于概率曲率检测的用于检测模型生成文本的工具,它可以帮助我们更好地分辨文章的来源和可信度,对保护信息真实、防止欺诈等方面具有重要意义。本次报告主要围绕其功能,实现和效果等展开。(文末点击“阅读原文”,查看活动回放。)Ericmitchell斯坦福大学计算机系四年级博士生,由ChelseaFinn和Chri

  2. [Vuforia]二.3D物体识别 - 2

    之前说过10之后的版本没有3dScan了,所以还是9.8的版本或者之前更早的版本。 3d物体扫描需要先下载扫描的APK进行扫面。首先要在手机上装一个扫描程序,扫描现实中的三维物体,然后上传高通官网,在下载成UnityPackage类型让Unity能够使用这个扫描程序可以从高通官网上进行下载,是一个安卓程序。点到Tools往下滑,找到VuforiaObjectScanner下载后解压数据线连接手机,将apk文件拷入手机安装然后刚才解压文件中的Media文件夹打开,两个PDF图打印第一张A4-ObjectScanningTarget.pdf,主要是用来辅助扫描的。好了,接下来就是扫描三维物体。将瓶

  3. ruby-on-rails - 在 heroku 的 .fonts 文件夹中包含自定义字体,似乎无法识别它们 - 2

    Heroku支持人员告诉我,为了在我的Web应用程序中使用自定义字体(未安装在系统中,您可以在bash控制台中使用fc-list查看已安装的字体)我必须部署一个包含所有字体的.fonts文件夹里面的字体。问题是我不知道该怎么做。我的意思是,我不知道文件名是否必须遵循heroku的任何特殊模式,或者我必须在我的代码中做一些事情来考虑这种字体,或者如果我将它包含在文件夹中它是自动的......事实是,我尝试以不同的方式更改字体的文件名,但根本没有使用该字体。为了提供更多详细信息,我们使用字体的过程是将PDF转换为图像,更具体地说,使用rghostgem。并且最终图像根本不使用自定义字体。在

  4. ruby-on-rails - 没有这样的文件或目录 - 用 Mini Magick 识别 - 2

    在我让另一个人重做我的前端UI之前,我的Rails应用程序运行平稳。我已经尝试解决此错误3天了。这是错误:Nosuchfileordirectory-identifyExtractedsource(aroundline#59):575859606162@post=Post.find(params[:id])authorize@postif@post.update_attributes(post_params)flash[:notice]="Postwasupdated."redirect_to[@topic,@post]else{"utf8"=>"✓","_method"=>"patc

  5. ruby - Ruby 的 AST 中的 'send' 关键字是什么意思? - 2

    我正在尝试学习Ruby词法分析器和解析器(whitequarkparser)以了解更多有关从Ruby脚本进一步生成机器代码的过程。在解析以下Ruby代码字符串时。defadd(a,b)returna+bendputsadd1,2它导致以下S表达式符号。s(:begin,s(:def,:add,s(:args,s(:arg,:a),s(:arg,:b)),s(:return,s(:send,s(:lvar,:a),:+,s(:lvar,:b)))),s(:send,nil,:puts,s(:send,nil,:add,s(:int,1),s(:int,3))))任何人都可以向我解释生成的

  6. ruby - 为什么 return 关键字会导致我的 'if block' 出现问题? - 2

    下面的代码工作正常:person={:a=>:A,:b=>:B,:c=>:C}berson={:a=>:A1,:b=>:B1,:c=>:C1}kerson=person.merge(berson)do|key,oldv,newv|ifkey==:aoldvelsifkey==:bnewvelsekeyendendputskerson.inspect但是如果我在“ifblock”中添加return,我会得到一个错误:person={:a=>:A,:b=>:B,:c=>:C}berson={:a=>:A1,:b=>:B1,:c=>:C1}kerson=person.merge(berson

  7. ruby - 是否有 SproutCore 或 Cappuccino 的现场演示/示例应用程序 - 2

    在他们的网站上找不到任何内容。我主要只是想看看哪个值得一试(当然是RIA)。谢谢 最佳答案 SproutCoredemos 关于ruby-是否有SproutCore或Cappuccino的现场演示/示例应用程序,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/1419788/

  8. ruby - 在 Ruby 中跳过额外的关键字参数 - 2

    我定义了一个方法:defmethod(one:1,two:2)[one,two]end当我这样调用它时:methodone:'one',three:'three'我得到:ArgumentError:unknownkeyword:three我不想从散列中一个一个地提取所需的键或排除额外的键。除了像这样定义方法之外,有没有办法规避这种行为:defmethod(one:1,two:2,**other)[one,two,other]end 最佳答案 如果不想写**other中的other,可以省略。defmethod(one:1,two:2

  9. ruby - 使用 ruby​​ 识别阵列上的运行 - 2

    如果我们有一个数组array=[1,1,0,0,2,3,0,0,0,3,3,3]我们如何识别给定数字的运行(具有相同值的连续数字的数量)?例如:run_pattern_for(array,0)->2run_pattern_for(array,3)->1run_pattern_for(array,1)->1run_pattern_for(array,2)->0没有2的运行,因为没有连续出现2。3有一个运行,因为只有一个幻影以树为连续数字。 最佳答案 尝试:classArraydefcount_runs(element)chunk{|n

  10. 最新版人脸识别小程序 图片识别 生成二维码签到 地图上选点进行位置签到 计算签到距离 课程会议活动打卡日常考勤 上课签到打卡考勤口令签到 - 2

    技术选型1,前端小程序原生MINA框架cssJavaScriptWxml2,管理后台云开发Cms内容管理系统web网页3,数据后台小程序云开发云函数云开发数据库(基于MongoDB)云存储4,人脸识别算法基于百度智能云实现人脸识别一,用户端效果图预览老规矩我们先来看效果图,如果效果图符合你的需求,就继续往下看,如果不符合你的需求,可以跳过。1-1,登录注册页可以看到登录页有注册入口,注册页如下我们的注册,需要管理员审核,审核通过后才可以正常登录使用小程序1-2,个人中心页登录成功以后,我们会进入个人中心页我们在个人中心页可以注册人脸,因为我们做人脸识别签到,需要先注册人脸才可以进行人脸比对,进

随机推荐